Das Silicon Valley erstickte die KI-Untergangsbewegung im Jahr 2024

Das Silicon Valley erstickte die KI Untergangsbewegung im Jahr 2024

Seit einigen Jahren schrillen bei Technologen die Alarmglocken hinsichtlich des Potenzials fortschrittlicher KI-Systeme, der Menschheit katastrophalen Schaden zuzufügen.

Doch im Jahr 2024 wurden diese Warnrufe von einer praktischen und erfolgreichen Vision der generativen KI übertönt, die von der Technologiebranche gefördert wurde – eine Vision, die auch ihrem Geldbeutel zugute kam.

Diejenigen, die vor einem katastrophalen KI-Risiko warnen, werden oft als „KI-Doomer“ bezeichnet, obwohl ihnen dieser Name nicht gefällt. Sie befürchten, dass KI-Systeme Entscheidungen treffen, um Menschen zu töten, von den Mächtigen zur Unterdrückung der Massen eingesetzt werden oder auf die eine oder andere Weise zum Untergang der Gesellschaft beitragen könnten.

Im Jahr 2023 schien es, als stünden wir am Beginn einer Renaissance der Technologieregulierung. KI-Untergang und KI-Sicherheit – ein umfassenderes Thema, das Halluzinationen, unzureichende Moderation von Inhalten und andere Arten umfassen kann, wie KI der Gesellschaft schaden kann – hat sich von einem Nischenthema, das in San Francisco-Cafés diskutiert wird, zu einem Gespräch entwickelt, das auf MSNBC, CNN und auf den Titelseiten erscheint der New York Times.

Um die Warnungen des Jahres 2023 zusammenzufassen: Elon Musk und mehr als 1.000 Technologen und Wissenschaftler forderten eine Pause bei der KI-Entwicklung und forderten die Welt auf, sich auf die tiefgreifenden Risiken der Technologie vorzubereiten. Kurz darauf unterzeichneten Top-Wissenschaftler von OpenAI, Google und anderen Labors einen offenen Brief, in dem sie sagten, dass dem Risiko, dass KI zum Aussterben der Menschheit führt, mehr Glauben geschenkt werden sollte. Monate später unterzeichnete Präsident Biden eine KI-Durchführungsverordnung mit dem allgemeinen Ziel, die Amerikaner vor KI-Systemen zu schützen. Im November 2023 entließ der gemeinnützige Vorstand des weltweit führenden KI-Entwicklers OpenAI Sam Altman mit der Begründung, sein CEO stehe im Ruf, zu lügen, und man könne ihm eine so wichtige Technologie wie künstliche allgemeine Intelligenz (AGI) nicht einmal anvertrauen der imaginäre Endpunkt der KI, also Systeme, die tatsächlich Selbstbewusstsein zeigen. (Obwohl sich die Definition jetzt ändert, um den Geschäftsanforderungen derjenigen gerecht zu werden, die darüber sprechen.)

Für einen Moment schien es, als würden die Träume der Unternehmer aus dem Silicon Valley gegenüber der allgemeinen Gesundheit der Gesellschaft in den Hintergrund treten.

Aber für diese Unternehmer war das Narrativ rund um den KI-Untergang besorgniserregender als die KI-Modelle selbst.

Als Reaktion darauf veröffentlichte a16z-Mitbegründer Marc Andreessen: „Warum KI die Welt retten wird” im Juni 2023, ein 7.000 Wörter umfassender Aufsatz, der die Agenda der KI-Untergangskandidaten auseinandernimmt und eine optimistischere Vision davon präsentiert, wie sich die Technologie auswirken wird.

SAN FRANCISCO, CA – 13. SEPTEMBER: Der Unternehmer Marc Andreessen spricht auf der Bühne während Tech Disrupt SF 2016 am Pier 48 am 13. September 2016 in San Francisco, Kalifornien. (Foto von Steve Jennings/Getty Images für Tech)Bildnachweis:Steve Jennings / Getty Images

„Die Ära der künstlichen Intelligenz ist da und die Leute flippen aus. Glücklicherweise bin ich hier, um die gute Nachricht zu überbringen: KI wird die Welt nicht zerstören, sondern sie möglicherweise sogar retten“, sagte Andreessen in der Aufsatz.

In seiner Schlussfolgerung lieferte Andreessen eine praktische Lösung für unsere KI-Ängste: Bewegen Sie sich schnell und machen Sie Dinge kaputt – im Grunde dieselbe Ideologie, die jede andere Technologie des 21. Jahrhunderts (und die damit verbundenen Probleme) definiert hat. Er argumentierte, dass Big-Tech-Unternehmen und Start-ups die Möglichkeit gegeben werden sollte, KI so schnell und aggressiv wie möglich und mit wenigen bis gar keinen regulatorischen Hindernissen aufzubauen. Dies würde sicherstellen, dass KI nicht in die Hände einiger mächtiger Unternehmen oder Regierungen gerät, und es Amerika ermöglichen, effektiv mit China zu konkurrieren, sagte er.

Dies würde natürlich auch den vielen KI-Startups von a16z ermöglichen, viel mehr Geld zu verdienen – und einige empfanden seinen Techno-Optimismus in einer Zeit extremer Einkommensunterschiede, Pandemien und Immobilienkrisen als unhöflich.

Während Andreessen nicht immer mit Big Tech einverstanden ist, ist das Geldverdienen ein Bereich, in dem sich die gesamte Branche einig sein kann. Die Mitbegründer von a16z schrieben dieses Jahr einen Brief an Microsoft-CEO Satya Nadella, in dem sie die Regierung im Wesentlichen aufforderten, die KI-Branche überhaupt nicht zu regulieren.

Unterdessen hörten Musk und andere Technologen trotz ihrer hektischen Handbewegungen im Jahr 2023 nicht auf, langsamer zu werden, um sich im Jahr 2024 auf die Sicherheit zu konzentrieren – ganz im Gegenteil: Die KI-Investitionen im Jahr 2024 übertrafen alles, was wir bisher gesehen hatten. Altman kehrte schnell an die Spitze von OpenAI zurück, und im Jahr 2024 verließen zahlreiche Sicherheitsforscher das Unternehmen, während gleichzeitig Alarmglocken wegen der schwindenden Sicherheitskultur schrillten.

Bidens sicherheitsorientierte KI-Durchführungsverordnung ist dieses Jahr in Washington, D.C. weitgehend in Ungnade gefallen, gab der neue Präsident Donald Trump bekannt plant, Bidens Anordnung aufzuhebenund argumentiert, dass dies die KI-Innovation behindert. Andreessen sagt, er habe Trump in den letzten Monaten zu KI und Technologie beraten, und Sriram Krishnan, ein langjähriger Risikokapitalgeber bei a16z, sei jetzt Trumps offizieller leitender Berater für KI.

Laut Dean Ball, einem KI-fokussierten Forschungsstipendiaten am Mercatus Center der George Mason University, haben die Republikaner in Washington mehrere KI-bezogene Prioritäten, die den heutigen KI-Untergang übertreffen. Dazu gehören der Aufbau von Rechenzentren zur Stromversorgung von KI, der Einsatz von KI in Regierung und Militär, der Wettbewerb mit China, die Einschränkung der Moderation von Inhalten durch Mitte-Links-Technologieunternehmen und der Schutz von Kindern vor KI-Chatbots.

„Ich finde [the movement to prevent catastrophic AI risk] hat auf Bundesebene an Boden verloren. Auf Landes- und lokaler Ebene haben sie auch ihren einzigen großen Kampf verloren“, sagte Ball in einem Interview mit Tech. Natürlich bezieht er sich auf Kaliforniens umstrittenes KI-Sicherheitsgesetz SB 1047.

Einer der Gründe dafür, dass der KI-Untergang im Jahr 2024 in Ungnade fiel, lag ganz einfach darin, dass wir mit zunehmender Beliebtheit von KI-Modellen auch sahen, wie unintelligent sie sein können. Es ist schwer vorstellbar, dass Google Gemini zu Skynet wird, wenn es Ihnen nur sagt, Sie sollen Kleber auf Ihre Pizza auftragen.

Aber gleichzeitig war 2024 ein Jahr, in dem viele KI-Produkte Konzepte aus der Science-Fiction zum Leben zu erwecken schienen. Zum ersten Mal in diesem Jahr: OpenAI zeigte, wie wir mit unseren Telefonen und nicht über sie sprechen können, und Meta stellte intelligente Brillen mit visuellem Echtzeitverständnis vor. Die Ideen, die dem katastrophalen KI-Risiko zugrunde liegen, stammen größtenteils aus Science-Fiction-Filmen, und obwohl es offensichtlich eine Grenze gibt, beweist die KI-Ära, dass einige Ideen aus Science-Fiction möglicherweise nicht für immer fiktiv sind.

Der größte KI-Untergangskampf des Jahres 2024: SB 1047

1735745052 397 Das Silicon Valley erstickte die KI Untergangsbewegung im Jahr 2024
Staatssenator Scott Wiener, ein Demokrat aus Kalifornien, rechts, während des Bloomberg BNEF-Gipfels in San Francisco, Kalifornien, USA, am Mittwoch, 31. Januar 2024. Der Gipfel bietet Ideen, Erkenntnisse und Verbindungen, um erfolgreiche Strategien zu formulieren und daraus Kapital zu schlagen Wir unterstützen den technologischen Wandel und gestalten eine sauberere, wettbewerbsfähigere Zukunft. Fotograf: David Paul Morris/Bloomberg über Getty ImagesBildnachweis:David Paul Morris/Bloomberg über Getty Images / Getty Images

Der Kampf um die KI-Sicherheit im Jahr 2024 erreichte seinen Höhepunkt mit SB 1047, einem Gesetzentwurf, der von zwei hoch angesehenen KI-Forschern unterstützt wurde: Geoffrey Hinton und Yoshua Benjio. Der Gesetzentwurf zielte darauf ab, zu verhindern, dass fortschrittliche KI-Systeme zu Massenaussterben der Menschheit und Cyberangriffen führen, die größeren Schaden anrichten könnten als der CrowdStrike-Ausfall im Jahr 2024.

SB 1047 passierte die kalifornische Legislative und gelangte bis zum Schreibtisch von Gouverneur Gavin Newsom, wo er es als einen Gesetzentwurf mit „übergroßen Auswirkungen“ bezeichnete. Der Gesetzentwurf versuchte, die Art von Dingen zu verhindern, vor denen Musk, Altman und viele andere Führungskräfte des Silicon Valley im Jahr 2023 gewarnt hatten, als sie diese offenen Briefe zum Thema KI unterzeichneten.

Aber Newsom legte sein Veto gegen SB 1047 ein. In den Tagen vor seiner Entscheidung sprach er auf der Bühne in der Innenstadt von San Francisco über die KI-Regulierung und sagte: „Ich kann nicht alles lösen.“ Was können wir lösen?“

Das fasst ziemlich klar zusammen, wie viele politische Entscheidungsträger heute über das katastrophale KI-Risiko nachdenken. Mit einer praktischen Lösung ist das einfach kein Problem.

Dennoch war SB 1047 über seinen Fokus auf das katastrophale KI-Risiko hinaus fehlerhaft. Der Gesetzentwurf regelte KI-Modelle nach ihrer Größe, um nur die größten Akteure zu regulieren. Dabei waren jedoch neue Techniken wie Testzeitberechnungen oder der Aufstieg kleiner KI-Modelle, auf die führende KI-Labore bereits umsteigen, nicht berücksichtigt. Darüber hinaus wurde der Gesetzentwurf weithin als Angriff auf Open-Source-KI – und stellvertretend auch auf die Forschungswelt – angesehen, da er Unternehmen wie Meta und Mistral davon abhalten würde, hochgradig anpassbare Grenz-KI-Modelle zu veröffentlichen.

Aber laut dem Verfasser des Gesetzentwurfs, Senator Scott Wiener, hat sich Silicon Valley schmutzig verhalten, um die öffentliche Meinung über SB 1047 zu beeinflussen. Zuvor hatte er gegenüber Tech erklärt, dass Risikokapitalgeber von Y Combinator und A16Z eine Propagandakampagne gegen den Gesetzentwurf führten.

Insbesondere verbreiteten diese Gruppen die Behauptung, dass SB 1047 Softwareentwickler wegen Meineids ins Gefängnis schicken würde. Y Combinator hat junge Gründer dazu aufgefordert Unterschreiben Sie einen Brief, in dem Sie dies darlegen im Juni 2024. Etwa zur gleichen Zeit erhob Anjney Midha, Komplementärin von Andreessen Horowitz, eine ähnliche Behauptung in einem Podcast.

Die Brookings Institution bezeichnete dies als eine von vielen falschen Darstellungen des Gesetzentwurfs. SB 1047 erwähnte, dass Technologiemanager Berichte einreichen müssten, in denen sie Mängel ihrer KI-Modelle aufzeigten, und im Gesetzentwurf wurde darauf hingewiesen, dass das Lügen auf einem Regierungsdokument ein Meineid sei. Allerdings haben die Risikokapitalgeber, die diese Befürchtungen verbreiten, nicht erwähnt, dass Menschen selten wegen Meineids angeklagt und noch seltener verurteilt werden.

YC lehnte die Idee ab, dass sie Fehlinformationen verbreiteten, und teilte Tech zuvor mit, dass SB 1047 vage und nicht so konkret sei, wie Senator Wiener es dargestellt habe.

Generell wuchs während des SB 1047-Kampfes die Meinung, dass KI-Doomer nicht nur technologiefeindlich, sondern auch wahnsinnig seien. Der berühmte Investor Vinod Khosla bezeichnete Wiener im Oktober dieses Jahres als ahnungslos über die wahren Gefahren der KI.

Der leitende KI-Wissenschaftler von Meta, Yann LeCun, lehnt die Ideen, die dem KI-Untergang zugrunde liegen, seit langem ab, äußerte sich dieses Jahr jedoch deutlicher.

„Die Idee, dass irgendwie [intelligent] „Dass Systeme sich ihre eigenen Ziele ausdenken und die Menschheit übernehmen, ist einfach absurd, es ist lächerlich“, sagte LeCun Davos im Jahr 2024und weist darauf hin, dass wir noch sehr weit von der Entwicklung superintelligenter KI-Systeme entfernt sind. „Es gibt viele, viele Möglichkeiten zu bauen [any technology] auf eine Weise, die gefährlich oder falsch ist, Menschen tötet usw. Aber solange es einen Weg gibt, es richtig zu machen, ist das alles, was wir brauchen.“

In der Zwischenzeit haben die politischen Entscheidungsträger ihre Aufmerksamkeit auf eine Reihe neuer KI-Sicherheitsprobleme gelenkt.

Der Kampf im Jahr 2025

Die politischen Entscheidungsträger hinter SB 1047 haben es angedeutet Möglicherweise kommen sie 2025 mit einem geänderten Gesetzentwurf zurück um langfristige KI-Risiken anzugehen. Einer der Sponsoren hinter dem Gesetzentwurf, Encode, sagt, die landesweite Aufmerksamkeit, die SB 1047 auf sich gezogen habe, sei ein positives Signal gewesen.

„Die KI-Sicherheitsbewegung hat im Jahr 2024 trotz des Vetos von SB 1047 sehr ermutigende Fortschritte gemacht“, sagte Sunny Gandhi, Vizepräsident für politische Angelegenheiten bei Encode, in einer E-Mail an Tech. „Wir sind optimistisch, dass das öffentliche Bewusstsein für langfristige KI-Risiken wächst und die Bereitschaft der politischen Entscheidungsträger steigt, diese komplexen Herausforderungen anzugehen.“

Laut Gandhi erwarte Encode im Jahr 2025 „erhebliche Anstrengungen“, um das KI-gestützte Katastrophenrisiko zu regulieren, obwohl sie keine konkreten Maßnahmen bekannt gab.

Auf der anderen Seite ist der General Partner von a16z, Martin Casado, einer der Menschen, die den Kampf gegen die Regulierung des katastrophalen KI-Risikos anführen. In einem Dezember op-ed In Bezug auf die KI-Politik argumentierte Casado, dass wir in Zukunft eine vernünftigere KI-Politik brauchen, und erklärte, dass „KI äußerst sicher zu sein scheint.“

„Die erste Welle dummer KI-Politikbemühungen liegt weitgehend hinter uns“, sagte Casado ein Dezember-Tweet. „Hoffentlich können wir in Zukunft klüger sein.“

KI als „äußerst sicher“ und Versuche, sie zu regulieren, als „dumm“ zu bezeichnen, ist etwas zu stark vereinfacht. Beispielsweise entsteht derzeit Character.AI – ein Startup, in das a16z investiert hat verklagt und es wurden Untersuchungen zu Bedenken hinsichtlich der Sicherheit von Kindern durchgeführt. In einer laufenden Klage tötete sich ein 14-jähriger Junge aus Florida, nachdem er angeblich seine Selbstmordgedanken einem Character.AI-Chatbot anvertraut hatte, mit dem er romantische und sexuelle Chats führte. Dieser Fall an sich zeigt, wie sich unsere Gesellschaft auf neue Arten von Risiken im Zusammenhang mit KI vorbereiten muss, die noch vor wenigen Jahren vielleicht lächerlich klangen.

Es sind weitere Gesetzesentwürfe im Umlauf, die sich mit dem langfristigen KI-Risiko befassen – darunter einer, der gerade auf Bundesebene von eingebracht wurde Senator Mitt Romney. Aber jetzt sieht es so aus, als ob die KI-Untergangskandidaten im Jahr 2025 einen harten Kampf führen werden.

tch-1-tech