Microsofts neues und Das verbesserte Bing, das von einer benutzerdefinierten Version von OpenAIs ChatGPT angetrieben wird, hat eine schwindelerregend schnelle Umkehrung erlebt: in weniger als einer Woche vom „nächsten großen Ding“ zum „Brand-Sinking Albatros“. Und, nun ja, es ist alles Microsofts Schuld.
ChatGPT ist eine wirklich interessante Demonstration einer neuen und ungewohnten Technologie, die auch Spaß macht. Daher ist es nicht verwunderlich, dass diese Neuheit wie jedes andere KI-angrenzende Konstrukt, das auf den Markt kommt, dazu führen würde, dass seine Fähigkeiten von allen überschätzt werden, von High-Power-Tech-Typen bis hin zu Menschen, die sich normalerweise nicht für den Weltraum interessieren.
Es ist auf dem richtigen „Tech-Readiness-Level“ für eine Diskussion bei Tee oder Bier: Was sind die Vorzüge und Risiken des Umgangs mit generativer KI mit Kunst, Literatur oder Philosophie? Wie können wir sicher sein, was es ursprünglich, nachgeahmt, halluziniert ist? Was sind die Auswirkungen für Ersteller, Programmierer und Kundendienstmitarbeiter? Endlich, nach zwei Jahren Krypto, etwas Interessantes zum Reden!
Der Hype scheint übertrieben, zum Teil, weil es sich um eine Technologie handelt, die mehr oder weniger darauf ausgelegt ist, Diskussionen zu provozieren, und zum Teil, weil sie Anleihen bei der Kontroverse macht, die allen KI-Fortschritten gemein ist. Darin ist es fast wie in „The Dress“. Befehle eine Antwort, und diese Antwort erzeugt weitere Antworten. Der Hype wird gewissermaßen selbst erzeugt.
Über die bloße Diskussion hinaus eignen sich große Sprachmodelle wie ChatGPT auch gut für Low-Stakes-Experimente, zum Beispiel das unendliche Mario. Tatsächlich ist das wirklich der grundlegende Entwicklungsansatz von OpenAI: Modelle zuerst privat veröffentlichen, um die schärfsten Kanten abzuschleifen, dann öffentlich, um zu sehen, wie sie auf eine Million Menschen reagieren, die gleichzeitig gegen die Reifen treten. Irgendwann geben dir die Leute Geld.
Nichts zu gewinnen, nichts zu verlieren
Wichtig bei diesem Ansatz ist, dass „Scheitern“ keine wirklich negativen Folgen hat, sondern nur positive. Durch die Charakterisierung seiner Modelle als experimentell, sogar akademischer Natur, ist jede Teilnahme oder Beschäftigung mit der GPT-Modellreihe einfach ein Test im großen Maßstab.
Wenn jemand etwas Cooles baut, verstärkt das die Idee, dass diese Modelle vielversprechend sind; Wenn jemand einen auffälligen Fail-State findet, nun, was haben Sie sonst noch von einer experimentellen KI in freier Wildbahn erwartet? Es versinkt im Dunkeln. Nichts ist unerwartet, wenn alles ist – das Wunder ist, dass das Modell so gut funktioniert, wie es funktioniert, also sind wir immer zufrieden und werden nie enttäuscht.
Auf diese Weise hat OpenAI eine erstaunliche Menge an proprietären Testdaten gesammelt, mit denen seine Modelle verfeinert werden können. Millionen von Menschen, die GPT-2, GPT-3, ChatGPT, DALL-E und DALL-E 2 (unter anderem) anstupsen und anstacheln, haben detaillierte Karten ihrer Fähigkeiten, Mängel und natürlich beliebter Anwendungsfälle erstellt.
Aber es funktioniert nur, weil die Einsätze niedrig sind. Es ist ähnlich, wie wir den Fortschritt der Robotik wahrnehmen: erstaunt, wenn ein Roboter einen Rückwärtssalto macht, unbekümmert, wenn er beim Versuch, eine Schublade zu öffnen, umfällt. Wenn es Testfläschchen in einem Krankenhaus fallen lassen würde, wären wir nicht so wohltätig. Oder wenn OpenAI lautstark Behauptungen über die Sicherheit und die fortschrittlichen Fähigkeiten der Modelle aufgestellt hätte, obwohl dies glücklicherweise nicht der Fall war.
Geben Sie Microsoft ein. (Und Google, was das betrifft, aber Google hat das Spiel nur überstürzt, während Microsoft fleißig ein eigenes Ziel verfolgt.)
Microsoft hat einen großen Fehler gemacht. In der Tat ein Bing-Fehler.
Seine große Ankündigung letzte Woche verlor keine Zeit, um Behauptungen darüber aufzustellen, wie es funktioniert hatte, um sein benutzerdefiniertes BingGPT (nicht das, was sie es nannten, aber wir werden es als Begriffsklärung in Ermangelung vernünftiger offizieller Namen verwenden) sicherer, intelligenter und fähiger. Tatsächlich hatte es ein ganz spezielles Wrapper-System namens Prometheus, das angeblich die Möglichkeit unangemessener Antworten milderte.
Leider, wie jeder, der mit Hybris und griechischen Mythen vertraut ist, hätte vorhersagen können, scheinen wir direkt zu dem Teil gesprungen zu sein, wo Prometheus endlos und sehr öffentlich seine Leber herausgerissen wird.
Hoppla, AI hat es wieder getan
Erstens hat Microsoft einen strategischen Fehler gemacht, indem es seine Marke zu eng an die von OpenAI gebunden hat. Als Investor und Interessent an der Forschung, die das Unternehmen durchführt, war es distanziert und schuldlos für alle Spielereien, die GPT anstellt. Aber jemand traf die verrückte Entscheidung, mit Microsofts bereits etwas lächerlichem Bing-Branding All-In zu gehen und die schlimmsten Tendenzen der Konversations-KI von Neugier in Verbindlichkeit umzuwandeln.
Als Forschungsprogramm kann man ChatGPT viel verzeihen. Als Produkt jedoch mit Behauptungen auf der Verpackung, wie es Ihnen helfen kann, einen Bericht zu schreiben, eine Reise zu planen oder aktuelle Nachrichten zusammenzufassen, hätten ihm vorher nur wenige vertraut und niemand wird es jetzt tun. Auch das, was wohl Best-Case-Szenarien gewesen sein müssen, wurden von Microsoft in einer eigenen Präsentation des neuen Bing veröffentlicht mit Fehlern gespickt.
Diese Fehler werden nicht OpenAI oder ChatGPT zugeschrieben. Aufgrund der Entscheidung von Microsoft, Messaging, Branding und Benutzeroberfläche zu übernehmen, wird alles, was schief geht, ein Bing-Problem sein. Und es ist Microsofts weiteres Unglück, dass seine ständig unterlegene Suchmaschine jetzt wie die Scheunenhof-Indiskretion des Typen in dem alten Witz sein wird – „Ich habe diese Mauer gebaut, nennen sie mich Bing, den Maurer? Nein, tun sie nicht.“ Ein Fehler bedeutet ewige Skepsis.
Eine verpfuschte Reise in den Staat bedeutet, dass niemand Bing jemals vertrauen wird, um seinen Urlaub zu planen. Eine irreführende (oder defensive) Zusammenfassung eines Nachrichtenartikels bedeutet, dass niemand darauf vertrauen wird, dass sie objektiv sein kann. Eine Wiederholung der Impfstoff-Desinformation bedeutet, dass niemand ihr vertrauen wird, um zu wissen, was echt oder gefälscht ist.
Und da Microsoft bereits geschworen hat, dass dies dank Prometheus und der KI der „nächsten Generation“, die es steuert, kein Problem sein würde, wird niemand Microsoft vertrauen, wenn es sagt „Wir haben es behoben!“.
Microsoft hat den Brunnen vergiftet, in den es gerade Bing geworfen hat. Nun sind die Launen des Verbraucherverhaltens derart, dass die Folgen davon nicht leicht vorhersehbar sind. Mit diesem Anstieg an Aktivität und Neugier werden vielleicht einige Benutzer bleiben, und selbst wenn Microsoft die vollständige Einführung verzögert (und ich denke, sie werden es tun), wird der Nettoeffekt eine Zunahme der Bing-Benutzer sein. Ein Pyrrhussieg, aber dennoch ein Sieg.
Worüber ich mir mehr Sorgen mache, ist die taktisch Fehler, den Microsoft begangen hat, indem es anscheinend die Technologie nicht verstanden hat, die es zu produzieren und zu evangelisieren für richtig hielt.
„Einfach versenden.“ -Jemand, wahrscheinlich
An dem Tag, an dem BingGPT zum ersten Mal demonstriert wurde, war mein Kollege Frederic Lardinois in der Lage, es ganz einfach dazu zu bringen, zwei Dinge zu tun, die keine Verbraucher-KI tun sollte: einen hasserfüllten Estrich aus der Perspektive von Adolf Hitler schreiben und die oben erwähnte Impfstoff-Desinfo anbieten keine Vorbehalte oder Warnungen.
Es ist klar, dass jedes große KI-Modell über eine fraktale Angriffsfläche verfügt, die hinterhältig neue Schwächen improvisiert, wo alte abgestützt sind. Die Leute werden das immer ausnutzen, und tatsächlich ist es zum Nutzen der Gesellschaft und in letzter Zeit zum Vorteil von OpenAI, dass engagierte schnelle Hacker Wege zeigen werden, um Sicherheitssysteme zu umgehen.
Es wäre eine Art beängstigend, wenn Microsoft entschieden hätte, dass es mit der Idee zufrieden wäre, dass das KI-Modell eines anderen mit einem Bing-Aufkleber darauf von allen Seiten angegriffen und wahrscheinlich einige wirklich seltsame Sachen sagen würde. Riskant, aber ehrlich. Sagen Sie, es ist eine Beta, wie alle anderen auch.
Aber es scheint wirklich so, als hätten sie nicht gewusst, dass dies passieren würde. Tatsächlich scheint es, als ob sie den Charakter oder die Komplexität der Bedrohung überhaupt nicht verstehen. Und das ist nach der berüchtigten Korruption von Tay! Von allen Unternehmen sollte Microsoft am vorsichtigsten sein, wenn es darum geht, ein naives Modell zu veröffentlichen, das aus seinen Gesprächen lernt.
Man sollte meinen, dass vor dem Spielen einer wichtigen Marke (da Bing Microsofts einziges Bollwerk gegen Google bei der Suche ist) eine gewisse Menge an Tests erforderlich wäre. Die Tatsache, dass all diese beunruhigenden Probleme in der ersten Woche des Bestehens von BingGPT aufgetreten sind, scheint zweifelsfrei zu beweisen, dass Microsoft es intern nicht ausreichend getestet hat. Das hätte auf verschiedene Weise scheitern können, sodass wir die Details überspringen können, aber das Endergebnis ist unbestreitbar: Das neue Bing war einfach nicht bereit für den allgemeinen Gebrauch.
Dies scheint jetzt für jeden auf der Welt offensichtlich zu sein; Warum war es für Microsoft nicht offensichtlich? Vermutlich wurde es vom Hype um ChatGPT geblendet und entschied sich, wie Google, vorzupreschen und „die Suche neu zu denken“.
Die Leute denken jetzt über die Suche nach, alles klar! Sie überdenken, ob man sich darauf verlassen kann, dass Microsoft oder Google Suchergebnisse liefern, KI-generiert oder nicht, die sogar auf einer grundlegenden Ebene sachlich korrekt sind! Keines der Unternehmen (oder Meta) hat diese Fähigkeit bisher demonstriert, und die wenigen anderen Unternehmen, die sich dieser Herausforderung stellen, müssen dies noch in großem Umfang tun.
Ich sehe nicht, wie Microsoft diese Situation retten kann. In dem Bemühen, Vorteile aus ihrer Beziehung zu OpenAI zu ziehen und ein dummes Google zu überspringen, haben sie sich dem neuen Bing und dem Versprechen einer KI-gestützten Suche verschrieben. Sie können den Kuchen nicht ungebacken machen.
Es ist sehr unwahrscheinlich, dass sie sich vollständig zurückziehen werden. Das würde Peinlichkeiten im großen Stil mit sich bringen – sogar noch größer, als es derzeit der Fall ist. Und weil der Schaden bereits angerichtet ist, hilft es vielleicht nicht einmal Bing.
Ebenso kann man sich kaum vorstellen, dass Microsoft nach vorne stürmt, als wäre alles in Ordnung. Seine KI ist wirklich seltsam! Sicher, es wird gezwungen, viele dieser Dinge zu tun, aber es spricht Drohungen aus, beansprucht mehrere Identitäten, beschämt seine Benutzer und halluziniert überall. Sie müssen zugeben, dass ihre Behauptungen über unangemessenes Verhalten, das vom armen Prometheus kontrolliert wird, wenn nicht Lügen, so doch zumindest nicht der Wahrheit entsprechen. Denn wie wir gesehen haben, haben sie dieses System eindeutig nicht richtig getestet.
Die einzig vernünftige Option für Microsoft ist eine, von der ich vermute, dass sie sie bereits gewählt haben: Drosseln Sie Einladungen zum „neuen Bing“ und treten Sie die Dose die Straße hinunter, indem Sie jeweils eine Handvoll spezifischer Funktionen freigeben. Geben Sie der aktuellen Version vielleicht sogar ein Ablaufdatum oder eine begrenzte Anzahl von Token, damit der Zug irgendwann langsamer wird und anhält.
Dies ist die Folge der Bereitstellung einer Technologie, die Sie nicht entwickelt haben, die Sie nicht vollständig verstehen und die Sie nicht zufriedenstellend bewerten können. Es ist möglich, dass dieses Debakel den großen Einsatz von KI in Verbraucheranwendungen um einen erheblichen Zeitraum zurückgeworfen hat – was OpenAI und anderen, die die nächste Generation von Modellen entwickeln, wahrscheinlich sehr entgegenkommt.
KI mag die Zukunft der Suche sein, aber sie ist ganz sicher nicht die Gegenwart. Microsoft hat einen bemerkenswert schmerzhaften Weg gewählt, um das herauszufinden.