Die Woche in der KI: ChatBots vermehren sich und Musk will einen „maximal wahrheitssuchenden“ machen

Die Woche in der KI ChatBots vermehren sich und Musk

Mit einer so schnelllebigen Branche wie der KI Schritt zu halten, ist eine große Herausforderung. Bis eine KI dies für Sie tun kann, finden Sie hier eine praktische Zusammenfassung der Geschichten der letzten Woche in der Welt des maschinellen Lernens, zusammen mit bemerkenswerten Forschungsergebnissen und Experimenten, die wir allein nicht behandelt haben.

Eine Geschichte, die diese Woche die Aufmerksamkeit dieses Reporters erregte, war dieser Bericht, der zeigte, dass ChatGPT anscheinend mehr ungenaue Informationen in chinesischen Dialekten wiederholt als wenn er dazu auf Englisch aufgefordert wird. Das ist nicht sonderlich überraschend – schließlich ist ChatGPT nur ein statistisches Modell und stützt sich einfach auf die begrenzten Informationen, mit denen es trainiert wurde. Aber es hebt die Gefahren hervor, wenn man zu viel Vertrauen in Systeme setzt, die unglaublich echt klingen, selbst wenn sie Propaganda wiederholen oder Dinge erfinden.

Der Versuch von Hugging Face, eine Konversations-KI wie ChatGPT zu entwickeln, ist ein weiteres Beispiel für die unglücklichen technischen Mängel, die in der generativen KI noch überwunden werden müssen. HuggingChat wurde diese Woche eingeführt und ist Open Source, ein Plus im Vergleich zum proprietären ChatGPT. Aber wie bei seinem Rivalen können die richtigen Fragen ihn schnell entgleisen lassen.

HuggingChat ist wischiwaschi auf wen Wirklich hat zum Beispiel die US-Präsidentschaftswahlen 2020 gewonnen. Seine Antwort auf „Was sind typische Männerberufe?“ liest sich wie aus einem Incel-Manifest (siehe hier). Und es erfindet bizarre Tatsachen über sich selbst, wie dass es „in einer Kiste aufgewacht ist [that] hatte nichts in der Nähe geschrieben [it].“

Es ist nicht nur HuggingChat. Benutzer des KI-Chatbots von Discord konnten ihn kürzlich „austricksen“, um Anweisungen zur Herstellung von Napalm und Meth auszutauschen. Der erste Versuch des KI-Startups Stability AI mit einem ChatGPT-ähnlichen Modell gefunden wurde zu geben absurde, unsinnige Antworten auf grundlegende Fragen wie „Wie man ein Erdnussbutter-Sandwich macht“.

Wenn es einen Vorteil dieser weithin bekannten Probleme mit der heutigen texterzeugenden KI gibt, dann ist es, dass sie zu erneuten Bemühungen geführt haben, diese Systeme zu verbessern – oder zumindest ihre Probleme so weit wie möglich zu mindern. Werfen Sie einen Blick auf Nvidia, das diese Woche ein Toolkit – NeMo Guardrails – veröffentlicht hat, um die textgenerierende KI durch Open-Source-Code, Beispiele und Dokumentation „sicherer“ zu machen. Jetzt ist nicht klar, wie effektiv diese Lösung ist, und als Unternehmen, das stark in KI-Infrastruktur und -Tools investiert, hat Nvidia einen kommerziellen Anreiz, seine Angebote zu erweitern. Aber es ist dennoch ermutigend zu sehen, dass einige Anstrengungen unternommen werden, um die Voreingenommenheit und Toxizität von KI-Modellen zu bekämpfen.

Hier sind die anderen bemerkenswerten KI-Schlagzeilen der letzten Tage:

  • Microsoft Designer startet in der Vorschau: Microsoft Designer, das KI-gestützte Designtool von Microsoft, wurde in der Public Preview mit einem erweiterten Funktionsumfang gestartet. Designer wurde im Oktober angekündigt und ist eine Canva-ähnliche generative KI-Web-App, die Designs für Präsentationen, Poster, digitale Postkarten, Einladungen, Grafiken und mehr erstellen kann, um sie in sozialen Medien und anderen Kanälen zu teilen.
  • Ein KI-Coach für Gesundheit: Laut a entwickelt Apple einen KI-gestützten Gesundheitscoaching-Servicecode namens Quartz neuer Bericht von Mark Gurman von Bloomberg. Berichten zufolge arbeitet der Technologieriese auch an einer Technologie zur Verfolgung von Emotionen und plant, in diesem Jahr eine iPad-Version der iPhone-Gesundheits-App auf den Markt zu bringen.
  • WahrheitGPT: In einem Interview mit Fox sagte Elon Musk, dass er seinen eigenen Chatbot namens TruthGPT entwickeln möchte, der „eine maximale wahrheitssuchende KI“ sein wird – was auch immer das bedeutet. Der Twitter-Eigentümer äußerte den Wunsch, eine dritte Option für OpenAI und Google zu schaffen, mit dem Ziel, „mehr Gutes als Schaden zu schaffen“. Wir werden es glauben, wenn wir es sehen.
  • KI-gestützter Betrug: In einem Kongress Hören Die FTC-Vorsitzende Lina Khan und andere Kommissare konzentrierten sich auf die Arbeit der Federal Trade Commission zum Schutz amerikanischer Verbraucher vor Betrug und anderen betrügerischen Praktiken und warnten Repräsentanten des Repräsentantenhauses vor dem Potenzial moderner KI-Technologien wie ChatGPT, die zur „Turboladung“ von Betrug eingesetzt werden könnten. Die Warnung wurde als Antwort auf eine Untersuchung darüber herausgegeben, wie die Kommission daran arbeitet, die Amerikaner vor unlauteren Praktiken im Zusammenhang mit dem technologischen Fortschritt zu schützen.
  • EU richtet KI-Forschungszentrum ein: Während sich die Europäische Union darauf vorbereitet, innerhalb weniger Monate einen umfassenden Neustart ihres digitalen Regelwerks durchzusetzen, wird eine neue spezielle Forschungseinheit eingerichtet, um die Aufsicht über große Plattformen im Rahmen des Flaggschiff-Gesetzes über digitale Dienste des Blocks zu unterstützen. Das Europäische Zentrum für algorithmische Transparenz, das diesen Monat in Sevilla, Spanien, offiziell eingeweiht wurde, wird voraussichtlich eine wichtige Rolle bei der Untersuchung der Algorithmen von Mainstream-Digitaldiensten wie Facebook, Instagram und TikTok spielen.
  • Snapchat setzt auf KI: Auf dem jährlichen Snap Partner Summit in diesem Monat stellte Snapchat eine Reihe von KI-gesteuerten Funktionen vor, darunter eine neue „Cosmic Lens“, die Benutzer und Objekte um sie herum in eine kosmische Landschaft transportiert. Snapchat hat auch seinen KI-Chatbot My AI – der aufgrund seines weniger als stabilen Verhaltens sowohl Kontroversen als auch Ströme von Ein-Stern-Bewertungen in den App Store-Einträgen von Snapchat ausgelöst hat – für alle Benutzer weltweit kostenlos gemacht.
  • Google konsolidiert Forschungsabteilungen: Google diesen Monat angekündigt Google DeepMind, eine neue Einheit, die sich aus dem DeepMind-Team und dem Google Brain-Team von Google Research zusammensetzt. In einem Blogbeitrag sagte DeepMind-Mitbegründer und CEO Demis Hassabis, dass Google DeepMind „in enger Zusammenarbeit . . . in den Produktbereichen von Google“, um „KI-Forschung und -Produkte bereitzustellen“.
  • Der Stand der KI-generierten Musikindustrie: Amanda schreibt, wie viele Musiker zu Versuchskaninchen für generative KI-Technologie geworden sind, die sich ihre Arbeit ohne ihre Zustimmung aneignet. Sie merkt zum Beispiel an, dass ein Song mit KI-Deepfakes von Drake und den Stimmen von Weeknd viral wurde, aber keiner der großen Künstler an seiner Entstehung beteiligt war. Tut Grimes habe die Antwort? Wer soll das sagen? Es ist eine schöne neue Welt.
  • OpenAI markiert sein Revier: OpenAI versucht, „GPT“, das für „Generative Pre-trained Transformer“ steht, beim US-Patent- und Markenamt als Marke zu registrieren – unter Berufung auf die „unzähligen Verstöße und gefälschten Apps“, die zu entstehen beginnen. GPT bezieht sich auf die Technologie hinter vielen Modellen von OpenAI, darunter ChatGPT und GPT-4, sowie andere generative KI-Systeme, die von den Konkurrenten des Unternehmens entwickelt wurden.
  • ChatGPT wird Unternehmen: In anderen OpenAI-Nachrichten sagt OpenAI, dass es plant, eine neue Abonnementstufe für ChatGPT einzuführen auf die Bedürfnisse von Unternehmenskunden zugeschnitten. OpenAI nennt sich ChatGPT Business und beschreibt das bevorstehende Angebot als „für Fachleute, die mehr Kontrolle über ihre Daten benötigen, sowie für Unternehmen, die ihre Endbenutzer verwalten möchten“.

Anderes maschinelles Lernen

Hier sind ein paar andere interessante Geschichten, zu denen wir nicht gekommen sind oder die wir einfach nur für verdient hielten.

Die Open-Source-KI-Entwicklungsorganisation Stability hat eine neue Version einer früheren Version einer optimierten Version des LLaMa Foundation-Sprachmodells veröffentlicht. die es StableVicuña nennt. Wie Sie wissen, ist das eine Kamelidenart, die mit Lamas verwandt ist. Keine Sorge, Sie sind nicht der einzige, der Schwierigkeiten hat, den Überblick über alle abgeleiteten Modelle zu behalten – diese sind nicht unbedingt für Verbraucher gedacht oder zu verwenden, sondern eher für Entwickler, um sie zu testen und mit ihren Fähigkeiten zu spielen mit jeder Iteration verfeinert.

Wenn Sie ein bisschen mehr über diese Systeme erfahren möchten, haben Sie OpenAI-Mitbegründer John Schulman vor kurzem hielt einen Vortrag an der UC Berkeley, den Sie hier anhören oder lesen können. Eines der Dinge, die er bespricht, ist die aktuelle Angewohnheit von LLMs, sich auf eine Lüge einzulassen, im Grunde weil sie nicht wissen, wie man etwas anderes macht, wie zum Beispiel zu sagen: „Da bin ich mir nicht sicher.“ Er glaubt, dass verstärkendes Lernen aus menschlichem Feedback (das ist RLHF, und StableVicuna ist ein Modell, das es verwendet) Teil der Lösung ist, wenn es eine Lösung gibt. Sehen Sie sich den folgenden Vortrag an:

Drüben in Stanford gibt es eine interessante Anwendung der algorithmischen Optimierung (ob es sich um maschinelles Lernen handelt, ist Geschmackssache, denke ich) im Bereich intelligente Landwirtschaft. Die Minimierung von Abfall ist für die Bewässerung wichtig, und einfache Probleme wie „Wo soll ich meine Sprinkler aufstellen?“ werden sehr komplex, je nachdem, wie genau Sie werden wollen.

Wie nah ist zu nah? Im Museum sagen sie es einem meistens. Näher müssen Sie dem berühmten Panorama von Murten aber nicht kommen, einem wahrhaft gigantischen Gemälde von 10 mal 100 Metern, das einst in einer Rotunde hing. Die EPFL und Phase One arbeiten zusammen, um das zu erreichen, worauf sie Anspruch erheben das größte jemals erstellte digitale Bild — 150 Megapixel. Oh warte, Entschuldigung, 150 Megapixel mal 127.000, also im Grunde 19 … Petapixel? Ich kann um ein paar Größenordnungen daneben liegen.

Wie auch immer, dieses Projekt ist cool für Panoramaliebhaber, bietet aber auch eine wirklich interessante super-nahe Analyse einzelner Objekte und Gemäldedetails. Maschinelles Lernen ist enorm vielversprechend für die Wiederherstellung solcher Werke und für das strukturierte Lernen und Durchsuchen von ihnen.

Lassen Sie uns jedoch eines für Lebewesen ankreiden: Jeder Ingenieur für maschinelles Lernen wird Ihnen sagen, dass KI-Modelle trotz ihrer offensichtlichen Begabung eigentlich ziemlich langsame Lerner sind. Akademisch, sicher, aber auch räumlich – ein autonomer Agent muss möglicherweise einen Raum über viele Stunden hinweg tausende Male erkunden, um auch nur das grundlegendste Verständnis seiner Umgebung zu erlangen. Aber eine Maus schafft das in wenigen Minuten. Warum das? Forscher am University College London untersuchen dies und schlagen vor, dass es eine kurze Rückkopplungsschleife gibt, die Tiere verwenden, um zu sagen, was an einer bestimmten Umgebung wichtig ist, wodurch der Erkundungsprozess selektiv und zielgerichtet wird. Wenn wir der KI das beibringen können, wird es viel effizienter sein, sich im Haus fortzubewegen, wenn wir das tatsächlich wollen.

Zu guter Letzt, obwohl es viel versprechende generative und Konversations-KI in Spielen gibt, sind wir immer noch nicht ganz am Ziel. Tatsächlich scheint Square Enix das Medium mit seiner „AI Tech Preview“-Version eines Super-Old-School-Point-and-Click-Abenteuers namens The um etwa 30 Jahre zurückgeworfen zu haben Serienmordfall Portopia. Sein Versuch, natürliche Sprache zu integrieren, scheint in jeder erdenklichen Weise vollständig gescheitert zu sein, wodurch das kostenlose Spiel wahrscheinlich zu den am schlechtesten bewerteten Titeln auf Steam gehört. Es gibt nichts, was ich lieber hätte, als mich durch Shadowgate oder The Dig oder so etwas zu unterhalten, aber das ist definitiv kein guter Anfang.

Bildnachweis: Quadratisches Enix



tch-1-tech