OpenAI Mitbegründer und CEO Sam Altman hat sich Ende letzter Woche zu einem ausführlichen Interview mit diesem Redakteur zusammengesetzt und Fragen zu einigen seiner ehrgeizigsten persönlichen Investitionen sowie zur Zukunft von OpenAI beantwortet.
Es gab viel zu besprechen. Das jetzt acht Jahre alte Team hat in den zwei Monaten seit der Veröffentlichung von ChatGPT, einem Chatbot, der Fragen wie eine Person beantwortet, die nationale Konversation dominiert. Die Produkte von OpenAI haben nicht nur die Benutzer in Erstaunen versetzt; Berichten zufolge befindet sich das Unternehmen in Gesprächen, um den Verkauf bestehender Aktien an neue Investoren zu beaufsichtigen 29 Milliarden Dollar Bewertung trotz seiner vergleichsweise nominelle Einnahmen.
Altman lehnte es ab, über die aktuellen Geschäftsbeziehungen von OpenAI zu sprechen, und gab einen kleinen Warnschuss ab, als ihm während unserer Sitzung eine verwandte Frage gestellt wurde. Dennoch verriet er ein wenig über die Pläne des Unternehmens für die Zukunft. Zum einen bestätigte Altman neben ChatGPT und dem beliebten digitalen Kunstgenerator des Outfits, DALL-E, dass auch ein Videomodell kommen wird, obwohl er sagte, dass er „keine kompetente Vorhersage darüber machen möchte“, fügte er hinzu dass „es ziemlich bald sein könnte; es ist ein legitimes Forschungsprojekt. Es kann eine Weile dauern.“
Altman machte deutlich, dass die sich entwickelnde Partnerschaft von OpenAI mit Microsoft – das zuerst in OpenAI investierte im Jahr 2019 und heute früher bestätigte seine Pläne KI-Tools wie ChatGPT in alle seine Produkte zu integrieren, ist kein exklusiver Pakt.
Darüber hinaus bestätigte Altman, dass OpenAI neben der Lizenzierung seiner Technologie an andere Unternehmen auch seine eigenen Softwareprodukte und -dienste entwickeln kann. Das ist bemerkenswert für Branchenbeobachter, die sich gefragt haben, ob OpenAI eines Tages über seine eigene Suchmaschine direkt mit Google konkurrieren könnte. (Zu diesem Szenario befragt, sagte Altman: „Wann immer jemand davon spricht, dass eine Technologie das Ende eines anderen Riesenunternehmens bedeutet, ist das normalerweise falsch. Die Leute vergessen, dass sie hier einen Gegenzug machen können, und sie sind ziemlich schlau, ziemlich kompetent. “)
Wenn OpenAI die Veröffentlichung der vierten Version von GPT plant, dem ausgeklügelten Sprachmodell, auf dem ChatGPT basiert, würde Altman nur sagen, dass das heiß erwartete Produkt „irgendwann herauskommen wird, wenn wir zuversichtlich sind, dass wir es können [release] es sicher und verantwortungsvoll.“ Er auch versuchte, die Erwartungen in Bezug auf GPT-4 zu dämpfen, indem er sagte, dass „wir kein tatsächliches AGI haben“, was künstliche allgemeine Intelligenz oder eine Technologie mit eigener emergenter Intelligenz bedeutet, im Gegensatz zu den aktuellen Deep-Learning-Modellen von OpenAI, die Probleme lösen und Muster durch Versuche identifizieren und Fehler.
„Ich glaube [AGI] ist das, was von uns erwartet wird“, und GPT-4 wird die Leute mit dieser Erwartung „enttäuschen“, sagte er.
Zwischenzeitlich nachgefragt wann Altman erwartet, künstliche allgemeine Intelligenz zu sehen, er postulierte, dass sie näher ist, als man sich vorstellen könnte, aber auch, dass der Wechsel zu „AGI“ nicht so abrupt sein wird, wie manche erwarten. „Je näher wir kommen [to AGI]desto schwerer fällt es mir zu antworten, weil ich denke, dass es viel verschwommener und viel mehr ein allmählicher Übergang sein wird, als die Leute denken“, sagte er.
Natürlich haben wir, bevor wir die Dinge abschlossen, Zeit damit verbracht, über Sicherheit zu sprechen, einschließlich der Frage, ob die Gesellschaft genügend Leitplanken für die Technologie hat, die OpenAI bereits in die Welt eingeführt hat. Viele Kritiker glauben, dass wir das nicht tun, darunter auch besorgte Erzieher die es zunehmend sind Blockierung Zugriff auf ChatGPT aufgrund von Befürchtungen, dass Schüler damit betrügen könnten. (Google hat sich Berichten zufolge geweigert, seinen eigenen KI-Chatbot LaMDA zu veröffentlichen, da Bedenken hinsichtlich seines „Reputationsrisiko.)
Altman sagte hier, dass OpenAI „einen internen Prozess hat, bei dem wir versuchen, Dinge zu zerstören und Auswirkungen zu untersuchen. Wir setzen externe Wirtschaftsprüfer ein. Wir haben extern rote Teamer. Wir arbeiten mit anderen Labors zusammen und lassen uns von Sicherheitsorganisationen Dinge ansehen.“
Gleichzeitig, sagte er, kommt die Technologie – von OpenAI und anderswo – und die Leute müssen anfangen, herauszufinden, wie sie damit leben können, schlug er vor. „Es gibt gesellschaftliche Veränderungen, die ChatGPT verursachen wird oder verursacht. Eine große Sache, die jetzt vor sich geht, betrifft ihre Auswirkungen auf Bildung und akademische Integrität, all das.“ Trotzdem argumentierte er: „Damit anfangen [product releases] jetzt [makes sense]wo immer noch relativ wenig auf dem Spiel steht, anstatt nur das zu veröffentlichen, was die gesamte Branche in ein paar Jahren haben wird, ohne dass die Gesellschaft Zeit hat, sich zu aktualisieren.“
Tatsächlich sollten Pädagogen – und vielleicht auch Eltern – verstehen, dass es keinen Weg gibt, den Geist wieder in die Flasche zu stecken. Während Altman sagte, dass OpenAI und andere KI-Outfits mit Wasserzeichentechnologien und anderen Verifizierungstechniken „experimentieren“ werden, um zu beurteilen, ob Schüler versuchen, KI-generierte Kopien als ihre eigenen auszugeben, deutete er auch an, dass die Konzentration auf dieses spezielle Szenario zu sehr sei zwecklos.
„Es gibt vielleicht Möglichkeiten, wie wir Lehrern dabei helfen können, die Ergebnisse eines GPT-ähnlichen Systems mit größerer Wahrscheinlichkeit zu erkennen, aber ehrlich gesagt, eine entschlossene Person wird sie umgehen, und ich glaube nicht, dass die Gesellschaft dies tun kann oder langfristig verlassen sollten.“
Es sei nicht das erste Mal, dass sich die Menschen erfolgreich an größere Veränderungen gewöhnt hätten, fügte er hinzu. In Anbetracht dessen, dass Taschenrechner „das, worauf wir im Mathematikunterricht testen, verändert haben“ und Google die Notwendigkeit, Fakten auswendig zu lernen, weit weniger wichtig gemacht hat, sagte Altman, dass Deep-Learning-Modelle „eine extremere Version“ beider Entwicklungen darstellen. Aber er argumentierte, dass die „Vorteile auch extremer sind. Wir hören von Lehrern, die verständlicherweise sehr nervös über die Auswirkungen auf die Hausaufgaben sind. Wir hören auch viel von Lehrern, die sagen: ‚Wow, das ist ein unglaublich persönlicher Nachhilfelehrer für jedes Kind.’“
Für das vollständige Gespräch über OpenAI und Altmans sich entwickelnde Ansichten über die Kommerzialisierung von KI, Vorschriften und warum KI in „genau die entgegengesetzte Richtung“ geht, als viele es sich vor fünf bis sieben Jahren vorgestellt haben, lohnt es sich, sich den folgenden Clip anzusehen.
Sie werden auch hören, wie Altman Best- und Worst-Case-Szenarien anspricht, wenn es um die Versprechen und Gefahren der KI geht. Die Kurzfassung? „Der gute Fall ist einfach so unglaublich gut, dass Sie wie eine wirklich verrückte Person klingen, wenn Sie anfangen, darüber zu sprechen“, sagte er. „Und der schlechte Fall – und ich denke, das ist wichtig zu sagen – ist für uns alle das Licht aus.“