Ist ChatGPT ein „in die Wildnis entlassener Virus“? • Tech

Die Kolosseen von Elden Ring oeffnen morgen endlich im kostenlosen

Vor mehr als drei Jahren traf sich dieser Redakteur mit Sam Altman zu einer kleinen Veranstaltung in San Francisco, kurz nachdem er seine Rolle als Präsident von Y Combinator aufgegeben hatte, um CEO des KI-Unternehmens zu werden, das er 2015 zusammen mit Elon Musk gegründet hatte und andere, OpenAI.

Damals beschrieb Altman das Potenzial von OpenAI in einer Sprache, die ausgefallen klang. Altman sagte zum Beispiel, dass die Möglichkeiten mit künstlicher allgemeiner Intelligenz – Maschinenintelligenz, die Probleme ebenso lösen kann wie ein Mensch – so unfassbar groß sind, dass das Outfit, wenn es OpenAI gelingen würde, sie zu knacken, „vielleicht den Lichtkegel aller Zukunft einfangen könnte Wert im Universum.“ Er sagte, dass das Unternehmen „keine Forschungsergebnisse veröffentlichen muss“, weil es so mächtig sei. Auf die Frage, ob sich OpenAI der Angstmacherei schuldig gemacht habe – Elon Musk, ein Mitbegründer des Teams, hat wiederholt alle Organisationen, die KI entwickeln, dazu aufgerufen geregelt — Altman sprach über die Gefahren von nicht Denken Sie über „gesellschaftliche Konsequenzen“ nach, wenn „Sie etwas auf einer Exponentialkurve aufbauen“.

Das Publikum lachte an verschiedenen Stellen des Gesprächs und war sich nicht sicher, wie ernst es Altman nehmen sollte. Jetzt lacht aber niemand mehr. Während Maschinen noch nicht so intelligent sind wie Menschen, einige der Technik die OpenAI inzwischen in die Welt hinausgebracht hat, kommt dem nahe genug, dass einige Kritiker befürchten, dass es unser Untergang sein könnte.

In der Tat, die ChatGPT Modell, das OpenAI letzte Woche für die breite Öffentlichkeit veröffentlicht hat, ist so in der Lage, q zu beantwortenFragen wie eine Person, dass Fachleute aus einer Reihe von Branchen Schwierigkeiten haben, die Auswirkungen zu verarbeiten. Pädagogen zum Beispiel fragen sich, wie sie in der Lage sein werden, Originaltexte von den algorithmisch generierten Aufsätzen zu unterscheiden, die sie zwangsläufig erhalten – und das kann sich entziehen Anti-Plagiat-Software.

Paul Kedrosky ist per se kein Pädagoge. Er ist Ökonom, Risikokapitalgeber und MIT-Stipendiat und bezeichnet sich selbst als „frustrierten Normalbürger mit einer Vorliebe dafür, über Risiken und unbeabsichtigte Folgen in komplexen Systemen nachzudenken“. Aber er gehört zu denen, die sich plötzlich große Sorgen um unsere gemeinsame Zukunft machen, twittern gestern: „[S]Ich schäme mich für OpenAI, dass sie diese Atombombe im Taschenformat ohne Einschränkungen in eine unvorbereitete Gesellschaft geschleudert hat.“ Kedrosky schrieb: „Ich bin offensichtlich der Meinung, dass ChatGPT (und seinesgleichen) sofort zurückgezogen werden sollte. Und wenn es jemals wieder eingeführt wird, nur mit strengen Auflagen.“

Wir haben gestern mit ihm über einige seiner Bedenken gesprochen und warum er glaubt, dass das, was OpenAI vorantreibt, die „störendste Veränderung ist, die die US-Wirtschaft seit 100 Jahren erlebt hat“, und das nicht auf eine gute Art und Weise.

Unser Chat wurde aus Gründen der Länge und Klarheit bearbeitet.

TC: ChatGPT kam letzten Mittwoch heraus. Was hat Ihre Reaktion auf Twitter ausgelöst?

PK: Ich habe in der Vergangenheit mit diesen Conversational User Interfaces und KI-Diensten gespielt, und das ist offensichtlich ein riesiger Sprung darüber hinaus. Und was mich hier besonders gestört hat, ist die beiläufige Brutalität, mit massiven Folgen für eine Vielzahl unterschiedlicher Aktivitäten. Es sind nicht nur die offensichtlichen, wie das Schreiben von Aufsätzen in der High School, sondern in so ziemlich jedem Bereich, in dem es eine Grammatik gibt – [meaning] eine organisierte Art, sich auszudrücken. Das können Softwareentwicklung, Schulaufsätze, juristische Dokumente sein. Alle von ihnen werden von diesem gefräßigen Biest leicht gefressen und wieder ausgespuckt, ohne das zu entschädigen, was für das Training verwendet wurde.

Ich habe von einem Kollegen an der UCLA gehört, der mir sagte, dass er keine Ahnung hat, was er am Ende des laufenden Semesters mit Essays anfangen soll, wo er Hunderte pro Kurs und Tausende pro Fachbereich bekommt, weil er keine Ahnung mehr hat, was gefälscht ist und was nicht. Das so beiläufig zu tun – wie mir heute vorhin jemand sagte – erinnert an das sogenannte [ethical] White-Hat-Hacker, der einen Fehler in einem weit verbreiteten Produkt findet und dann den Entwickler informiert, bevor die breite Öffentlichkeit davon erfährt, damit der Entwickler sein Produkt patchen kann und wir keine Massenverwüstung und Stromnetzausfälle haben. Das Gegenteil ist der Fall, wenn ein Virus ohne Rücksicht auf die Folgen in die Wildnis entlassen wurde.

Es fühlt sich an, als könnte es die Welt auffressen.

Einige mögen sagen: „Nun, ging es Ihnen genauso, als die Automatisierung in den Autofabriken Einzug hielt und Autoarbeiter arbeitslos wurden? Denn das ist eine Art allgemeineres Phänomen.“ Aber das ist sehr unterschiedlich. Diese spezifischen Lerntechnologien sind selbstkatalysierend; Sie lernen aus den Anfragen. Roboter in einer Produktionsanlage, die störend wirkten und unglaubliche wirtschaftliche Folgen für die dort arbeitenden Menschen hatten, drehten sich dann nicht um und begannen, alles zu absorbieren, was innerhalb der Fabrik vor sich ging, und bewegten sich Sektor für Sektor, obwohl genau das nicht nur das ist, was wir erwarten können aber was Sie erwarten sollten.

Musk ließ OpenAI teilweise vorbei Meinungsverschiedenheiten über die Entwicklung des Unternehmens, sagte er 2019, und er spricht schon lange von KI als existenzieller Bedrohung. Aber die Leute nörgelten, dass er nicht wusste, dass er redet. Jetzt stehen wir dieser mächtigen Technologie gegenüber und es ist nicht klar, wer eingreift, um sie anzugehen.

Ich denke, es wird an einer Reihe von Orten gleichzeitig beginnen, von denen die meisten wirklich ungeschickt aussehen werden, und die Leute werden es tun [then] spotten, denn das ist es, was Technologen tun. Aber schade, denn da haben wir uns selbst hineingeraten, indem wir so etwas Konsequentes geschaffen haben. So wie die FTC vor Jahren verlangte, dass Leute Blogs betreiben [make clear they] Affiliate-Links haben und damit Geld verdienen, denke ich, dass die Leute auf einer trivialen Ebene gezwungen sein werden, Offenlegungen zu machen, die sagen: „Wir haben nichts davon geschrieben. Das ist alles maschinell generiert.“

Ich denke auch, dass wir neue Energie für die sehen werden laufende Klage gegen Microsoft und OpenAI wegen Urheberrechtsverletzung im Zusammenhang mit unseren in der Ausbildung befindlichen Algorithmen für maschinelles Lernen. Ich denke, es wird hier ein breiteres DMCA-Problem in Bezug auf diesen Dienst geben.

Und ich denke, es gibt das Potenzial für eine [massive] Gerichtsverfahren und eventuelle Vergleiche in Bezug auf die Folgen der Dienste, die, wie Sie wissen, wahrscheinlich zu lange dauern und nicht genügend Menschen helfen werden, aber ich sehe nicht, wie wir da nicht enden sollten [this place] in Bezug auf diese Technologien.

Was denkt man am MIT?

Andy McAfee und seine Gruppe dort drüben sind zuversichtlicher und haben eine orthodoxere Ansicht, dass jedes Mal, wenn wir Störungen sehen, andere Möglichkeiten geschaffen werden, Menschen mobil sind, sie von Ort zu Ort und von Beruf zu Beruf wechseln, und wir sollten es nicht sein so engstirnig, dass wir denken, dass diese spezielle Entwicklung der Technologie diejenige ist, um die herum wir nicht mutieren und migrieren können. Und ich denke, das stimmt im Großen und Ganzen.

Aber die Lehre der letzten fünf Jahre war insbesondere, dass diese Veränderungen lange dauern können. Der Freihandel zum Beispiel ist eine dieser unglaublich störenden, wirtschaftsweiten Erfahrungen, und wir alle haben uns als Ökonomen gesagt, dass sich die Wirtschaft anpassen wird und die Menschen im Allgemeinen von niedrigeren Preisen profitieren werden. Was niemand erwartet hatte, war, dass jemand all die wütenden Leute organisieren und Donald Trump wählen würde. Es gibt also diese Idee, dass wir vorhersehen und vorhersagen können, was die Konsequenzen sein werden, aber [we can’t].

Sie sprachen über das Schreiben von Aufsätzen für die High School und das College. Eines unserer Kinder hat schon gefragt – theoretisch! — wenn es ein Plagiat wäre, ChatGPT zum Verfassen einer Arbeit zu verwenden.

Der Zweck des Schreibens eines Aufsatzes besteht darin, zu beweisen, dass Sie denken können, also wird der Prozess kurzgeschlossen und der Zweck zunichte gemacht. Nochmals, in Bezug auf Konsequenzen und Externalitäten: Wenn wir Leuten keine Hausaufgaben geben können, weil wir nicht mehr wissen, ob sie schummeln oder nicht, bedeutet das, dass alles im Klassenzimmer passieren und überwacht werden muss. Wir können nichts mit nach Hause nehmen. Mehr Zeug muss mündlich gemacht werden, und was bedeutet das? Es bedeutet, dass die Schule gerade viel teurer, viel handwerklicher, viel kleiner geworden ist und genau zu dem Zeitpunkt, an dem wir versuchen, das Gegenteil zu tun. Die Folgen für die Hochschulbildung sind verheerend, wenn es darum geht, eine Dienstleistung tatsächlich mehr zu erbringen.

Was halten Sie von der Idee des universellen Grundeinkommens bzw. der Teilhabe aller daran Gewinne von KI?

Ich bin ein viel weniger starker Befürworter als vor COVID. Der Grund ist, dass COVID gewissermaßen ein Experiment mit einem universellen Grundeinkommen war. Wir haben die Leute bezahlt, damit sie zu Hause bleiben, und sie haben QAnon erfunden. Ich bin also wirklich nervös darüber, was passiert, wenn Leute nicht in ein Auto steigen, irgendwohin fahren, einen Job machen müssen, den sie hassen, und wieder nach Hause kommen, weil der Teufel Arbeit für müßige Hände findet, und es wird eine Menge geben von müßigen Händen und viel Teufelei.



tch-1-tech