Hallo Leute, willkommen beim regelmäßigen KI-Newsletter von Tech.
In dieser Woche zeigt eine neue Studie im Bereich KI, dass generative KI gar nicht so schädlich ist – zumindest nicht im apokalyptischen Sinne.
In einem Papier In einer anlässlich der Jahreskonferenz der Association for Computational Linguistics eingereichten Studie argumentieren Forscher der University of Bath und der Universität Darmstadt, dass Modelle wie die in Metas Lama-Familie nicht selbstständig lernen oder sich ohne explizite Anweisung neue Fähigkeiten aneignen können.
Die Forscher führten Tausende von Experimenten durch, um die Fähigkeit verschiedener Modelle zu testen, Aufgaben zu erledigen, die sie noch nie zuvor gesehen hatten, wie etwa das Beantworten von Fragen zu Themen, die außerhalb des Rahmens ihrer Trainingsdaten lagen. Sie stellten fest, dass die Modelle zwar oberflächlich Anweisungen befolgen konnten, aber nicht in der Lage waren, sich neue Fähigkeiten von selbst anzueignen.
„Unsere Studie zeigt, dass die Angst, dass ein Modell etwas völlig Unerwartetes, Innovatives und potenziell Gefährliches tut, unbegründet ist“, so Harish Tayyar Madabushi, Informatiker an der Universität Bath und Co-Autor der Studie. sagte in einer Erklärung. „Die vorherrschende Erzählung, dass diese Art von KI eine Bedrohung für die Menschheit darstellt, verhindert die weitverbreitete Einführung und Entwicklung dieser Technologien und lenkt auch die Aufmerksamkeit von den wahren Problemen ab, die unsere Aufmerksamkeit erfordern.“
Die Studie hat jedoch ihre Grenzen. Die Forscher haben nicht die neuesten und leistungsfähigsten Modelle von Anbietern wie OpenAI und Anthropic getestet, und das Benchmarking von Modellen ist in der Regel eine ungenaue Wissenschaft. Aber die Forschung ist weit aus dem Erste Zu finden dass die heutige generative KI-Technologie keine Bedrohung für die Menschheit darstellt – und dass eine gegenteilige Annahme das Risiko einer bedauerlichen Politik birgt.
In einem Kommentar Im Scientific American argumentierten der KI-Ethiker Alex Hanna und die Linguistikprofessorin Emily Bender im letzten Jahr, dass KI-Labore in Unternehmen die Aufmerksamkeit der Regulierungsbehörden auf imaginäre Szenarien lenken, die das Ende der Welt bedeuten, und zwar als bürokratischen Schachzug. Sie verwiesen auf den Auftritt von OpenAI-CEO Sam Altman bei einer Kongressanhörung im Mai 2023, bei der er – ohne Beweise – meinte, dass generative KI-Tools „ziemlich schiefgehen“ könnten.
„Die breite Öffentlichkeit und die Regulierungsbehörden dürfen nicht auf dieses Manöver hereinfallen“, schrieben Hanna und Bender. „Vielmehr sollten wir uns an Wissenschaftler und Aktivisten wenden, die Peer Review betreiben und den KI-Hype zurückgedrängt haben, um seine schädlichen Auswirkungen hier und jetzt zu verstehen.“
Ihre und Madabushis Argumente sind wichtige Punkte, die man im Hinterkopf behalten sollte, während Investoren weiterhin Milliarden in generative KI pumpen und der Hype-Zyklus seinen Höhepunkt erreicht. Für die Unternehmen, die generative KI-Technologie unterstützen, steht viel auf dem Spiel, und was für sie – und ihre Unterstützer – gut ist, ist nicht unbedingt gut für den Rest von uns.
Generative KI wird vielleicht nicht unser Aussterben verursachen. Aber sie richtet bereits auf andere Weise Schaden an – man denke nur an die Verbreitung von unfreiwilligen Deepfake-Pornos, unrechtmäßige Verhaftungen aufgrund von Gesichtserkennung und die Horden unterbezahlter Datenannotatoren. Die politischen Entscheidungsträger sehen das hoffentlich auch und teilen diese Ansicht – oder kommen irgendwann zu ihrer Meinung. Wenn nicht, hat die Menschheit möglicherweise sehr wohl Grund zur Befürchtung.
Nachricht
Google Gemini und KI, oh je: Googles jährliches Hardware-Event „Made By Google“ fand am Dienstag statt und das Unternehmen kündigte eine Menge Updates für seinen Gemini-Assistenten an – sowie neue Telefone, Ohrhörer und Smartwatches. Die neuesten Meldungen finden Sie in der Zusammenfassung von Tech.
Urheberrechtsklage gegen KI schreitet voran: Eine Sammelklage von Künstlern, die behaupten, dass Stability AI, Runway AI und DeviantArt ihre KIs illegal an urheberrechtlich geschützten Werken trainiert hätten, kann fortgesetzt werden, allerdings nur teilweise, entschied der vorsitzende Richter am Montag. In einem gemischten Urteil wurden mehrere Klagen der Kläger abgewiesen, während andere Bestand hatten, was bedeutet, dass die Klage vor Gericht landen könnte.
Probleme für X und Grok: X, die Social-Media-Plattform von Elon Musk, ist Ziel einer Reihe von Datenschutzbeschwerden geworden, nachdem sie sich die Daten von Nutzern in der Europäischen Union zunutze gemacht hatte, um KI-Modelle zu trainieren, ohne die Zustimmung der Nutzer einzuholen. X hat zugestimmt, die EU-Datenverarbeitung für das Training von Grok einzustellen – vorerst.
YouTube testet Zwillinge-Brainstorming: YouTube testet eine Integration mit Gemini, um Entwicklern beim Brainstorming von Videoideen, Titeln und Miniaturansichten zu helfen. Die Funktion heißt Brainstorm with Gemini und ist derzeit nur für ausgewählte Entwickler im Rahmen eines kleinen, begrenzten Experiments verfügbar.
GPT-4o von OpenAI macht seltsame Sachen: GPT-4o von OpenAI ist das erste Modell des Unternehmens, das sowohl auf Sprach- als auch auf Text- und Bilddaten trainiert wurde. Und das führt dazu, dass es sich manchmal seltsam verhält – beispielsweise indem es die Stimme der Person nachahmt, mit der es spricht, oder indem es mitten in einem Gespräch wahllos schreit.
Forschungspapier der Woche
Es gibt unzählige Unternehmen, die Tools anbieten, die angeblich zuverlässig Texte erkennen können, die von einem generativen KI-Modell geschrieben wurden. Das wäre beispielsweise nützlich, um Falschinformationen und Plagiate zu bekämpfen. Aber als wir vor einiger Zeit einige davon getestet haben, funktionierten die Tools selten. Und eine neue Studie legt nahe, dass sich die Situation nicht wesentlich verbessert hat.
Forscher an der UPenn entworfen ein Datensatz und eine Bestenliste, der Robust AI Detector (RAID), mit über 10 Millionen von KI generierten und von Menschen geschriebenen Rezepten, Nachrichtenartikeln, Blogbeiträgen und mehr, um die Leistung von KI-Textdetektoren zu messen. Sie fanden heraus, dass die von ihnen bewerteten Detektoren „größtenteils nutzlos“ (in den Worten der Forscher) waren und nur funktionierten, wenn sie auf bestimmte Anwendungsfälle und Texte angewendet wurden, die dem Text ähnelten, mit dem sie trainiert wurden.
„Wenn Universitäten oder Schulen sich auf einen eng abgestimmten Detektor verlassen würden, um den Konsum von [generative AI] um Aufgaben zu schreiben, könnten sie Studenten fälschlicherweise des Schummelns beschuldigen, obwohl sie es nicht tun“, sagte Chris Callison-Burch, Professor für Computer- und Informationswissenschaften und Mitautor der Studie, in einer Erklärung. „Sie könnten auch Studenten übersehen, die schummelten, indem sie andere [generative AI] um ihre Hausaufgaben zu machen.“
Es scheint, als gäbe es bei der Texterkennung durch künstliche Intelligenz kein Patentrezept – das Problem ist unlösbar.
Berichten zufolgeOpenAI selbst hat ein neues Texterkennungstool für seine KI-Modelle entwickelt – eine Verbesserung gegenüber dem ersten Versuch des Unternehmens –, lehnt es jedoch ab, es zu veröffentlichen, da es befürchtet, dass es nicht englischsprachige Benutzer überproportional beeinträchtigen und durch geringfügige Änderungen im Text unwirksam werden könnte. (Weniger philanthropisch ist OpenAI auch besorgt darüber, wie sich ein integrierter KI-Textdetektor auf die Wahrnehmung – und Nutzung – seiner Produkte auswirken könnte.)
Modell der Woche
Generative KI ist offenbar nicht nur für Memes gut. Forscher des MIT sind Bewerben Damit lassen sich Probleme in komplexen Systemen wie Windturbinen erkennen.
Ein Team am Computer Science and Artificial Intelligence Lab des MIT entwickelte ein Framework namens SigLLM, das eine Komponente zur Umwandlung von Zeitreihendaten – im Laufe der Zeit wiederholt durchgeführte Messungen – in textbasierte Eingaben enthält, die ein generatives KI-Modell verarbeiten kann. Ein Benutzer kann diese aufbereiteten Daten in das Modell einspeisen und es auffordern, mit der Erkennung von Anomalien zu beginnen. Das Modell kann auch zur Prognose zukünftiger Zeitreihendatenpunkte als Teil einer Anomalieerkennungs-Pipeline verwendet werden.
Das Framework hat nicht funktioniert außergewöhnlich In den Experimenten der Forscher hat sich SigLLM gut bewährt. Wenn seine Leistung jedoch verbessert werden kann, könnte SigLLM beispielsweise Technikern dabei helfen, potenzielle Probleme bei Geräten wie schweren Maschinen zu erkennen, bevor sie auftreten.
„Da dies nur die erste Iteration ist, haben wir nicht erwartet, gleich beim ersten Versuch dorthin zu gelangen, aber diese Ergebnisse zeigen, dass hier eine Chance besteht, [generative AI models] für komplexe Aufgaben der Anomalieerkennung“, sagte Sarah Alnegheimish, eine Doktorandin der Elektrotechnik und Informatik und Hauptautorin eines Artikels über SigLLM, in einer Erklärung.
Wundertüte
OpenAI hat ChatGPT, seine KI-gestützte Chatbot-Plattform, diesen Monat auf ein neues Basismodell aktualisiert – aber kein Änderungsprotokoll veröffentlicht (also kaum ein Änderungsprotokoll).
Was soll man also daraus machen? Was dürfen eine Marke davon, genau? Es gibt nichts, worauf man sich stützen kann, außer anekdotischen Beweisen von Subjektive Tests.
Ich denke, Ethan Mollick, Professor an der Wharton University, der sich mit KI, Innovation und Startups beschäftigt, hatte die richtige Einstellung. Es ist schwierig, Versionshinweise für generative KI-Modelle zu schreiben, da sich die Modelle von einer Interaktion zur nächsten „anders anfühlen“. Sie sind größtenteils vibes-basiert. Gleichzeitig nutzen die Leute ChatGPT – und zahlen dafür. Haben sie es nicht verdient zu wissen, worauf sie sich einlassen?
Es könnte sein, dass die Verbesserungen inkrementell sind, und OpenAI hält es aus Wettbewerbsgründen für unklug, dies zu signalisieren. Weniger wahrscheinlich ist, dass das Modell irgendwie mit OpenAIs gemeldet Durchbrüche im Denken. Unabhängig davon sollte Transparenz bei KI oberste Priorität haben. Ohne sie kann es kein Vertrauen geben – und OpenAI hat bereits viel davon verloren.