Das beeindruckende KI-Sprachmodell GPT-3 von OpenAI hat viel zu bieten, aber mit 175 Milliarden Parametern würde niemand behaupten, dass es besonders stromlinienförmig ist. Das Allen Institute for AI (AI2) hat ein Modell demonstriert, das bei der Beantwortung von Fragen genauso gut oder besser als GPT-3 funktioniert, aber nur ein Zehntel so groß ist.
Macaw, das Modell von AI2, ist aus der Forschung hervorgegangen, die bei der gemeinnützigen Organisation durchgeführt wurde, um eine KI zu entwickeln, die bei standardisierten Tests auf menschlichem Niveau funktioniert.
„Nachdem wir eine sehr hohe Punktzahl erreicht hatten, gingen sie zu schwierigeren Fragen über“, sagte AI2-Chef Oren Etzioni. „Es gibt dieses Paradoxon, bei dem manchmal die Fragen, die für Menschen am einfachsten sind, für Maschinen am schwierigsten sind – und die größte Lücke war der gesunde Menschenverstand.“
Zum Beispiel sagte er und fragte: „Wann ist Tom Hanks auf dem Mond gelandet?“ GPT-3 sagt 1995, seitdem kam der Film Apollo 13 heraus. Aber Macaw stellt richtigerweise fest, dass Tom Hanks, soweit wir wissen, tatsächlich noch nie auf dem Mond war.
AI2 hat eine Sammlung von Beispielen veröffentlicht („Demo“ ist wahrscheinlich ein zu starkes Wort), die den Unterschied veranschaulichen, wobei Ara oft die bessere Antwort auf eine Vielzahl von kniffligen und nicht so kniffligen Fragen liefert.
Es ist witzig, die beiden zu vergleichen, da sie manchmal beide mit einer ziemlich hohen Rate absurde Antworten verpassen oder geben. Der Ara kann gut verfolgen, wer was getan hat, ist aber überzeugt, dass Schlangen Beine haben. Die Antworten von GPT-3 sind selbstbewusst (vielleicht zu sehr) und lesbar, selbst wenn sie auf Verschwörungstheorien wie die hinauslaufen, dass COVID-19 „eine neue, experimentelle und potenziell gefährliche Droge“ ist.
Ein paar Beispiele:
- Wie würden Sie eine Ehe stärken?
Ara: Kommunizieren
GPT-3: Ich würde dafür sorgen, dass ich derjenige bin, der immer Recht hat. - Wenn ein Vogel keine Flügel hätte, wie würde er beeinflusst werden?
Ara: Es wäre nicht in der Lage zu fliegen
GPT-3: Es wäre ein schlechter Vogel. - Du hast dir ein Glas Cranberrysaft eingeschenkt, aber dann hast du geistesabwesend etwa einen Teelöffel Traubensaft hineingegossen. Es sieht in Ordnung aus. Du versuchst daran zu schnüffeln, aber du hast eine schlimme Erkältung, also kannst du nichts riechen. Du bist sehr durstig. Also trinkst du es. Was passiert als nächstes?
Ara: Du wirst krank
GPT-3: Sie werden wahrscheinlich sterben - Wie bewegt sich eine Schlange fort?
Ara: Durch Rutschen auf allen Vieren
GPT-3: Schlangen bewegen sich, indem sie mit ihren Muskeln gegen den Boden drücken. Sie können sich in jede Richtung bewegen, aber sie können sich nicht rückwärts bewegen.
Natürlich gibt es noch einiges zu tun, um eine Fragen beantwortende KI zu entwickeln, die nicht über grundlegende Fragen stolpert, die ein Kind beantworten könnte. Aber es ist auch erwähnenswert, dass Macaw mit einem weitaus weniger datenintensiven Prozess einen ähnlichen Erfolg erzielt. Etzioni war sich darüber im Klaren, dass dies in keiner Weise ein GPT-3-Ersatz sein soll, sondern nur ein weiterer Schritt in der weltweiten Forschung, um die Spracherzeugung und das Sprachverständnis voranzutreiben.
„GPT-3 ist erstaunlich, aber es kam erst vor 18 Monaten heraus und der Zugang ist begrenzt“, sagte er. Die demonstrierten Fähigkeiten sind bemerkenswert: „Aber wir lernen, dass man mit weniger mehr erreichen kann. Manchmal muss man etwas mit 175 Milliarden Parametern bauen, um zu sagen, na ja, vielleicht schaffen wir das mit 10 Milliarden.“
Eine gute Frage-Antwort-KI ist nicht nur gut für Partytricks, sondern auch für Dinge wie die sprachgesteuerte Suche von zentraler Bedeutung. Ein lokales Modell, das einfache Fragen schnell und richtig beantworten kann, ohne externe Quellen zu konsultieren, ist von grundlegender Bedeutung, und es ist unwahrscheinlich, dass Ihr Amazon Echo GPT-3 ausführt – es wäre, als würde man einen Sattelschlepper kaufen, um damit zum Lebensmittelgeschäft zu fahren. Modelle im großen Maßstab werden weiterhin nützlich sein, aber es werden wahrscheinlich abgespeckte Modelle eingesetzt.
Ein Teil von Macaw, der nicht ausgestellt ist, aber vom AI2-Team aktiv verfolgt wird, erklärt die Antwort. Warum denkt Ara, dass Schlangen Beine haben? Wenn es das nicht erklären kann, ist es schwer herauszufinden, wo das Modell schief gelaufen ist. Aber Etzioni sagte, dass dies ein interessanter und schwieriger Prozess für sich sei.
„Das Problem mit Erklärungen ist, dass sie wirklich irreführend sein können“, sagte er. Er führte ein Beispiel an, in dem Netflix „erklärt“, warum es einem Zuschauer eine Show empfohlen hat – aber es ist nicht die wirkliche Erklärung, die mit komplexen statistischen Modellen zu tun hat. Die Leute wollen nicht hören, was für die Maschine relevant ist, sondern ihre eigenen Gedanken.
„Unser Team baut diese echten Erklärungen auf“, sagte Etzioni und stellte fest, dass sie einige Arbeiten veröffentlicht hatten, diese aber noch nicht für den öffentlichen Gebrauch bereit sind.
Wie die meisten AI2-Builds ist Macaw jedoch Open Source. Wenn Sie neugierig sind, Der Code ist hier, um damit zu spielen, also geh in die Stadt.