Gary Marcus hilft gerne dabei, die KI für die US-Regierung zu regulieren

Die EU schlaegt einen 12 Milliarden Dollar Plan vor um den wachsenden Cybersicherheitsbedrohungen

Am Dienstag dieser Woche saß der Neurowissenschaftler, Gründer und Autor Gary Marcus zwischen OpenAI-CEO Sam Altman und Christina Montgomery, der Chief Privacy Trust Officer von IBM, während alle drei über drei Stunden lang vor dem Justizausschuss des Senats aussagten. Die Senatoren konzentrierten sich weitgehend auf Altman, weil er derzeit eines der mächtigsten Unternehmen der Welt leitet und weil Altman sie wiederholt gebeten hat, bei der Regulierung seiner Arbeit zu helfen. (Die meisten CEOs bitten den Kongress, ihre Branche in Ruhe zu lassen.)

Obwohl Marcus in akademischen Kreisen schon seit einiger Zeit bekannt ist, ist sein Stern in letzter Zeit dank seines Newsletters („Der Weg zur KI, der wir vertrauen können“), ein Podcast („Menschen vs. Maschinen“) und sein nachvollziehbares Unbehagen über den unkontrollierten Aufstieg der KI. Zusätzlich zur Anhörung in dieser Woche trat er beispielsweise diesen Monat im Bloomberg-Fernsehen auf und wurde in der New York Times vorgestellt Sonntagsmagazin Und Verdrahtet unter anderem.

Da die Anhörung dieser Woche in gewisser Weise wirklich historisch schien – Senator Josh Hawley bezeichnete KI als „eine der technologischsten Innovationen in der Geschichte der Menschheit“, während Senator John Kennedy von Altman so begeistert war, dass er Altman aufforderte, seine eigenen Regulierungsbehörden auszuwählen – wollten wir das tun Sprechen Sie auch mit Marcus, um die Erfahrung zu besprechen und herauszufinden, was er darüber weiß, was als nächstes passiert.

Sind Sie noch in Washington?

Ich bin immer noch in Washington. Ich treffe mich mit Gesetzgebern und ihren Mitarbeitern sowie verschiedenen anderen interessanten Menschen und versuche herauszufinden, ob wir die Dinge, über die ich gesprochen habe, in die Realität umsetzen können.

Sie haben an der NYU unterrichtet. Sie haben mehrere KI-Unternehmen mitgegründet, darunter eins mit dem berühmten Robotiker Rodney Brooks. Ich habe Brooks 2017 auf der Bühne interviewt und er sagte damals, er glaube nicht, dass Elon Musk KI wirklich verstehe, und dass er der Meinung sei, dass Musk sich geirrt habe, dass KI eine existenzielle Bedrohung darstelle.

Ich denke, Rod und ich teilen die Skepsis darüber, ob die aktuelle KI überhaupt etwas mit künstlicher allgemeiner Intelligenz zu tun hat. Es gibt mehrere Probleme, die Sie auseinandernehmen müssen. Die eine ist: Sind wir AGI nahe und die andere ist, wie gefährlich ist die aktuelle KI, die wir haben? Ich glaube nicht, dass die derzeitige KI, die wir haben, eine existenzielle Bedrohung darstellt, aber dass sie gefährlich ist. In vielerlei Hinsicht halte ich es für eine Bedrohung für die Demokratie. Das ist keine Bedrohung für die Menschheit. Es wird nicht alle Menschen vernichten. Aber es ist ein ziemlich ernstes Risiko.

Vor nicht allzu langer Zeit haben Sie darüber debattiert Yann LeCun, Chef-KI-Wissenschaftler von Meta. Ich bin mir nicht sicher, was diese Klappe ging es um – die wahre Bedeutung von Deep-Learning-Neuronalen Netzen?

Also haben LeCun und ich tatsächlich über viele Dinge diskutiert viele Jahre. Wir hatten eine öffentliche Debatte, die 2017 von David Chalmers, dem Philosophen, moderiert wurde. Ich habe versucht, hinzukommen [LeCun] seitdem eine weitere echte Debatte zu führen, und er wird es nicht tun. Er twittert mich lieber auf Twitter und so weiter, was meiner Meinung nach nicht die erwachsenste Art ist, Gespräche zu führen, aber weil er eine wichtige Figur ist, antworte ich trotzdem.

Eine Sache, über die wir uns meiner Meinung nach nicht einig sind [currently] Das heißt, LeCun hält es für in Ordnung, diese zu verwenden [large language models] und dass hier kein Schaden entstehen kann. Ich denke, dass er damit völlig falsch liegt. Es gibt potenzielle Bedrohungen für die Demokratie, angefangen von Fehlinformationen, die absichtlich von schlechten Akteuren produziert werden, bis hin zu versehentlichen Fehlinformationen – wie dem Juraprofessor, dem sexuelle Belästigung vorgeworfen wurde, obwohl er sie nicht begangen hat – [to the ability to] Sie formen auf subtile Weise die politischen Überzeugungen der Menschen auf der Grundlage von Trainingsdaten, von denen die Öffentlichkeit nicht einmal etwas weiß. Es ist wie Social Media, aber noch heimtückischer. Sie können diese Tools auch verwenden, um andere Menschen zu manipulieren und sie wahrscheinlich zu allem zu verleiten, was Sie wollen. Sie können sie massiv skalieren. Hier gibt es definitiv Risiken.

Sie haben am Dienstag etwas Interessantes über Sam Altman gesagt, indem Sie den Senatoren gesagt haben, dass er ihnen nicht gesagt hat, was seine schlimmste Angst ist, die Sie „germane“ nennen, und sie auf ihn verwiesen haben. Was er immer noch nicht gesagt hat, hat etwas mit autonomen Waffen zu tun, über die ich vor ein paar Jahren mit ihm als Hauptanliegen gesprochen habe. Ich fand es interessant, dass Waffen nicht zur Sprache kamen.

Wir haben eine Menge Themen abgedeckt, aber es gibt viele Dinge, die wir nicht erreicht haben, einschließlich der Durchsetzung, die wirklich wichtig ist, sowie der nationalen Sicherheit und autonomen Waffen und solchen Dingen. Es wird noch mehrere davon geben [these].

War die Rede von Open Source versus geschlossenen Systemen?

Es kam kaum zur Sprache. Es ist offensichtlich eine wirklich komplizierte und interessante Frage. Es ist wirklich nicht klar, was die richtige Antwort ist. Sie möchten, dass Menschen unabhängige Wissenschaft betreiben. Vielleicht möchten Sie eine Art Lizenz für Dinge haben, die in sehr großem Maßstab eingesetzt werden, aber sie bergen besondere Risiken, einschließlich Sicherheitsrisiken. Es ist nicht klar, ob wir wollen, dass jeder böswillige Akteur Zugriff auf beliebig mächtige Tools erhält. Es gibt also Argumente dafür und es gibt Argumente dagegen, und wahrscheinlich wird die richtige Antwort darin bestehen, ein gewisses Maß an Open Source zuzulassen, aber auch einige Einschränkungen hinsichtlich dessen, was getan werden kann und wie es bereitgestellt werden kann.

Irgendwelche konkreten Gedanken zu Metas Strategie, sein Sprachmodell zuzulassen hinaus in die Welt damit die Leute daran herumbasteln können?

Das finde ich nicht toll [Meta’s AI technology] Um ehrlich zu sein, ist LLaMA da draußen. Ich denke, das war ein bisschen nachlässig. Und, wissen Sie, das ist buchstäblich einer der Geister, die aus der Flasche kommen. Es gab keine rechtliche Infrastruktur; Soweit ich weiß, haben sie niemanden zu ihrer Tätigkeit befragt. Vielleicht haben sie es getan, aber der Entscheidungsprozess bei diesem oder, sagen wir, Bing, ist im Grunde nur: Ein Unternehmen entscheidet, dass wir das tun.

Aber einige der Dinge, die Unternehmen entscheiden, könnten in naher Zukunft oder auf lange Sicht Schaden anrichten. Daher denke ich, dass Regierungen und Wissenschaftler zunehmend eine Rolle bei der Entscheidung spielen sollten, was da draußen passiert [through a kind of] FDA für KI, wo Sie, wenn Sie eine weitreichende Bereitstellung durchführen möchten, zunächst einen Versuch durchführen müssen. Sie sprechen von den Kostenvorteilen. Du machst einen weiteren Versuch. Und schließlich, wenn wir davon überzeugt sind, dass die Vorteile die Risiken überwiegen, [you do the] Veröffentlichung in großem Maßstab. Aber im Moment kann jedes Unternehmen jederzeit entscheiden, etwas für 100 Millionen Kunden bereitzustellen, und zwar ohne jegliche staatliche oder wissenschaftliche Aufsicht. Es muss ein System geben, in das unparteiische Autoritäten eingreifen können.

Woher sollten diese unparteiischen Autoritäten kommen? Arbeitet nicht jeder, der etwas darüber weiß, wie diese Dinge funktionieren, bereits für ein Unternehmen?

Ich bin nicht. [Canadian computer scientist] Yoshua Bengio ist es nicht. Es gibt viele Wissenschaftler, die nicht für diese Unternehmen arbeiten. Es ist eine echte Sorge, wie man genug von diesen Prüfern bekommt und wie man ihnen einen Anreiz gibt, dies zu tun. Aber es gibt hier 100.000 Informatiker mit einem gewissen Fachwissen. Nicht alle von ihnen arbeiten auf Vertragsbasis für Google oder Microsoft.

Möchten Sie eine Rolle in dieser KI-Agentur spielen?

Ich bin interessiert, ich bin der Meinung, dass alles, was wir bauen, global und neutral sein sollte, vermutlich gemeinnützig, und ich denke, ich habe hier eine gute, neutrale Stimme, die ich gerne teilen und versuchen möchte, uns an einen guten Ort zu bringen.

Wie fühlte es sich an, vor dem Justizausschuss des Senats zu sitzen? Und glauben Sie, dass Sie wieder eingeladen werden?

Ich wäre nicht schockiert, wenn ich wieder eingeladen würde, aber ich habe keine Ahnung. Es hat mich wirklich zutiefst berührt und ich war zutiefst bewegt, in diesem Raum zu sein. Ich nehme an, es ist etwas kleiner als im Fernsehen. Aber es fühlte sich an, als wäre jeder da, um zu versuchen, das Beste für die USA – für die Menschheit – zu tun. Jeder wusste, wie wichtig der Moment war, und allen Berichten zufolge haben die Senatoren ihr bestes Spiel abgeliefert. Wir wussten, dass wir aus einem bestimmten Grund dort waren und haben unser Bestes gegeben.



tch-1-tech