Der gewählte Präsident Donald Trump hat sich mit Unternehmern aus dem Silicon Valley umgeben – darunter Elon Musk, Marc Andreessen und David Sacks – die ihn nun in Technologie- und anderen Fragen beraten.
Wenn es um KI geht, ist sich diese Gruppe von Technologen ziemlich einig über die Notwendigkeit einer schnellen Entwicklung und Einführung von KI in den gesamten USA. Es gibt jedoch ein KI-Sicherheitsproblem, das diese Gruppe häufig anspricht: die Gefahr einer KI-„Zensur“ durch Big Techn.
Trumps Silicon-Valley-Berater könnten die Antworten von KI-Chatbots zu einem neuen Schlachtfeld für Konservative machen, um ihren anhaltenden Kulturkrieg mit Technologieunternehmen auszufechten.
KI-Zensur ist ein Begriff, der beschreibt, wie Technologieunternehmen mit den Antworten ihrer KI-Chatbots den Daumen auf die Waagschale legen, um sich bestimmten politischen Vorgaben anzupassen oder ihre eigenen durchzusetzen. Andere nennen es vielleicht „Inhaltsmoderation“, was sich oft auf dasselbe bezieht, aber eine ganz andere Konnotation hat. Ähnlich wie bei sozialen Medien und Suchalgorithmen ist es ein ständig in Bewegung befindliches Ziel, KI-Antworten für Live-Nachrichtenereignisse und kontroverse Themen zu liefern.
Im letzten Jahrzehnt haben Konservative Big Tech wiederholt dafür kritisiert, dass sie dem Druck der Regierung nachgegeben und ihre Social-Media-Plattformen und -Dienste zensiert haben. Allerdings haben einige Tech-Führungskräfte begonnen, ihre Positionen in der Öffentlichkeit abzuschwächen. Zum Beispiel im Vorfeld der Wahlen 2024 Meta-CEO Mark Zuckerberg entschuldigte sich beim Kongress dafür, dass sie dem Druck der Biden-Regierung nachgegeben haben, Inhalte im Zusammenhang mit COVID-19 aggressiv zu moderieren. Kurz darauf sagte der Meta-CEO, er habe einen „20-jährigen politischen Fehler“ begangen, indem er zu viel Verantwortung für Probleme übernommen habe, die außerhalb der Kontrolle seines Unternehmens lägen – und sagte, er würde diese Fehler nicht noch einmal machen.
Aber laut Trumps technischen Beratern stellen KI-Chatbots eine noch größere Bedrohung für die freie Meinungsäußerung dar und stellen möglicherweise eine wirksamere Möglichkeit dar, die Kontrolle über die Meinungsäußerung zu erlangen. Anstatt einen Such- oder Feed-Algorithmus auf ein gewünschtes Ergebnis auszurichten, wie zum Beispiel die Herabstufung von Impfstoff-Desinformationen, können Technologieunternehmen Ihnen jetzt einfach eine einzige, klare Antwort geben, die diese nicht enthält.
In den letzten Monaten haben sich Musk, Andreessen und Sacks in Podcasts, Interviews und Social-Media-Beiträgen gegen die KI-Zensur ausgesprochen. Obwohl wir nicht genau wissen, wie sie Trump beraten, könnten ihre öffentlich geäußerten Überzeugungen Aufschluss über die Gespräche geben, die sie hinter verschlossenen Türen in Washington, D.C. und Mar-a-Lago führen.
„Das ist meine Überzeugung und das, was ich den Menschen in Washington zu sagen versuche: Wenn Sie denken, dass die Zensur in den sozialen Medien schlecht ist, dann [AI] hat das Potenzial, tausendmal schlimmer zu sein“, sagte a16z-Mitbegründer Marc Andreessen in einem Aktuelles Interview mit Joe Rogan. „Wenn Sie die ultimative dystopische Welt erschaffen wollten, hätten Sie eine Welt, in der alles von einer KI gesteuert wird, die auf Lügen programmiert ist“, sagte Andreessen in einem anderen Aktuelles Interview mit Bari Weiss.
Andreessen teilte Weiss außerdem mit, dass er seit der Wahl etwa die Hälfte seiner Zeit mit Trumps Team verbracht habe, um Ratschläge zu Technologie und Wirtschaft zu geben.
„[Andreessen] erklärte den dystopischen Weg, auf dem wir uns mit KI befanden“, sagte David Sacks, ehemaliger COO von PayPal und Mitbegründer von Craft Ventures, kürzlich in einer Pressemitteilung Beitrag auf X kurz nachdem er zum Trumps KI- und Krypto-Zaren ernannt wurde. „Aber die Zeitachse hat sich geteilt, und wir sind jetzt auf einem anderen Weg.“
Bei All In – dem beliebten Podcast, den Sacks zusammen mit anderen einflussreichen Risikokapitalgebern moderiert – hat Trumps neuer KI-Berater Google und OpenAI wiederholt dafür kritisiert, dass sie, wie die Moderatoren der Sendung es beschreiben, KI-Chatbots dazu zwingen, politisch korrekt zu sein.
„Eine der Bedenken gegenüber ChatGPT bestand schon früh darin, dass es so programmiert war, dass es aktiviert werden kann, und dass es den Leuten zu vielen Dingen keine wahrheitsgetreuen Antworten gab. Die Zensur wurde in die Antworten eingebaut“, sagte Sacks weiter eine Folge von All In vom November 2023.
Trotz der Behauptungen von Sacks gibt sogar Elon Musk zu, dass der Chatbot von xAI oft mehr ist politisch korrekt als ihm lieb ist. Das liegt nicht daran, dass Grok „auf Wachsamkeit programmiert“ war, sondern eher an der Realität des Trainings von KI im offenen Internet. Allerdings macht Sacks jeden Tag deutlicher, dass ihm die „Wahrhaftigkeit der KI“ am Herzen liegt.
„So bekommt man Black George Washington bei Google“
Der am häufigsten genannte Fall von KI-Zensur ereignete sich, als der KI-Bildgenerator von Google Gemini gemischtrassige Bilder für Suchanfragen wie „US-Gründerväter“ und „Deutsche Soldaten im Zweiten Weltkrieg“ generierte, die offensichtlich ungenau waren.
Es gibt aber auch andere Beispiele dafür, dass Unternehmen bestimmte Ergebnisse beeinflussen. Zuletzt fanden Benutzer heraus, dass ChatGPT Fragen zu bestimmten Namen einfach nicht beantwortete, und OpenAI gab zu, dass mindestens einer dieser Namen interne Datenschutztools auslöste. An einem anderen Punkt weigerten sich die KI-Chatbots von Google und Microsoft zu sagen, wer hat die US-Wahl 2020 gewonnen. Während der Wahl 2024 weigerte sich fast jedes KI-System, Fragen zu Wahlergebnissen zu beantworten, mit Ausnahme von Perplexity und Grok.
Bei einigen dieser Beispiele argumentierten die Technologieunternehmen, dass sie eine sichere und verantwortungsvolle Entscheidung für ihre Benutzer trafen. In einigen Fällen mag das zutreffen – Grok halluzinierte über den Ausgang der Wahl 2024, bevor die Stimmen überhaupt gezählt worden waren.
Aber der Gemini-Vorfall stach heraus; Dies führte dazu, dass Google die Fähigkeit von Gemini, Bilder von Menschen zu erstellen, deaktivierte – etwas, das die kostenlose Version von Gemini immer noch nicht kann. Google bezeichnete diesen Vorfall als Fehler und entschuldigte sich dafür, „das Ziel verfehlt“ zu haben.
Andreessen und Sacks sehen das nicht so. Beide Risikokapitalgeber sagten, Google habe das Ziel keineswegs verfehlt, sondern eher etwas zu offensichtlich getroffen. Sie betrachteten es als einen entscheidenden Moment, als Google die Maske ablegte.
„Die Leute, die Google AI betreiben, schmuggeln ihre Vorlieben und Vorurteile ein, und diese Vorurteile sind äußerst liberal“, sagte Sacks weiter eine Folge von All In ab Februar 2024 als Reaktion auf den Gemini-Vorfall. „Glaube ich, dass sie die Voreingenommenheit beseitigen werden? Nein, sie werden es subtiler machen. Das ist meiner Meinung nach das Beunruhigende daran.“
„Es ist zu 100 % Absicht; So bekommt man Black George Washington bei Google“, sagte Andreessen das aktuelle Interview mit Weissder den Gemini-Vorfall noch einmal aufwärmt. „Das passt direkt zu Elons Argumentation, wonach man der KI im Kern beibringen muss, zu lügen [i.e., to produce answers like Gemini’s].“
Wie Andreessen erwähnt, hat sich Elon Musk entschieden gegen „aufgeweckte KI-Chatbots“ ausgesprochen. Musk gründete sein gut finanziertes KI-Startup xAI ursprünglich im Jahr 2023, um sich gegen ChatGPT von OpenAI zu stellen, was der Milliardär damals sagte mit dem „Wake-Mind-Virus“ infiziert. Letztendlich entwickelte er Grok, einen KI-Chatbot mit deutlich weniger Sicherheitsmaßnahmen als andere führende Chatbots.
„Ich werde etwas starten, das Sie TruthGPT oder eine maximal wahrheitssuchende KI nennen, die versucht, die Natur des Universums zu verstehen“, sagte Musk in einem Interview mit Fox aus dem Jahr 2023.
Als Musk Grok auf den Markt brachte, lobte Sacks die Bemühungen: „So etwas wie Grok zu haben, wird – zumindest – OpenAI ehrlich und ChatGPT ehrlich halten“, sagte Trumps KI-Zar in einer Stellungnahme All In-Folge vom November 2023.
Jetzt tut Musk mehr als nur, um ChatGPT ehrlich zu halten. Er hat mehr als 12 Milliarden US-Dollar gesammelt, um xAI zu finanzieren und mit OpenAI zu konkurrieren. Er verklagt außerdem das Startup von Sam Altman und Microsoft und stoppt damit möglicherweise den Übergang von OpenAI zur Profitorientierung.
Musks Einfluss auf konservative Regierungsvertreter hat bereits gezeigt, dass er auch in anderen Bereichen von Bedeutung ist. Der texanische Generalstaatsanwalt Ken Paxton ermittelt gegen eine Gruppe von Werbetreibenden, die angeblich Elon Musks Werbung wieder aufgenommen auf seiner Plattform.
Es ist nicht klar, was Trump und andere Republikaner tun könnten, wenn sie tatsächlich OpenAI oder Google wegen KI-Zensur untersuchen wollten. Es könnte sich um Untersuchungen von Expertenbehörden, rechtliche Anfechtungen oder vielleicht einfach nur um ein kulturelles Thema handeln, das Trump in den nächsten vier Jahren weiter vorantreiben kann. Unabhängig vom weiteren Weg nehmen Trumps Silicon-Valley-Berater heute kein Blatt vor den Mund zu diesem Thema.
„Elon hat mit den Twitter-Dateien eine privatisierte Version dessen geschaffen, was jetzt im Großen und Ganzen geschehen muss“, sagte Andreessen an Weissund bezog sich dabei auf Musks Zensurvorwürfe bei Twitter. „Wir, die amerikanische Bevölkerung, müssen herausfinden, was die ganze Zeit passiert ist, insbesondere über diese Verflechtung von Regierungsdruck und Zensur … Es muss Konsequenzen geben.“