Hallo Leute, willkommen beim regelmäßigen KI-Newsletter von Tech.
Diese Woche hat OpenAI im Bereich KI einen weiteren Mitbegründer verloren.
John Schulman, der eine zentrale Rolle bei der Entwicklung von ChatGPT, der KI-gestützten Chatbot-Plattform von OpenAI, spielte, hat das Unternehmen verlassen und wechselt zum Konkurrenten Anthropic. Schulman gab die Neuigkeiten auf X bekannt und sagte, seine Entscheidung sei auf den Wunsch zurückzuführen, sich stärker auf die KI-Ausrichtung zu konzentrieren – die Wissenschaft, die sicherstellt, dass sich KI wie beabsichtigt verhält – und sich mehr praktischer technischer Arbeit zu widmen.
Man fragt sich jedoch unweigerlich, ob der Zeitpunkt von Schulmans Abgang – der genau zu dem Zeitpunkt erfolgt, da OpenAI-Präsident Greg Brockman bis zum Jahresende eine längere Auszeit nimmt – opportunistisch war.
Am selben Tag, an dem Schulman seinen Ausstieg bekannt gab, gab OpenAI bekannt, dass es das Format seiner DevDay-Veranstaltung in diesem Jahr ändern will. Statt einer spektakulären eintägigen Konferenz soll es nun eine Reihe von Entwickler-Engagement-Sitzungen geben. Ein Sprecher sagte gegenüber Tech, dass OpenAI während des DevDay kein neues Modell ankündigen werde, was darauf hindeutet, dass die Arbeit an einem Nachfolger für das aktuelle Flaggschiff des Unternehmens, GPT-4o, nur langsam voranschreitet. (Die Verzögerung der Blackwell-GPUs von Nvidia könnte das Tempo weiter verlangsamen.)
Könnte OpenAI in Schwierigkeiten stecken? Hat Schulman die Zeichen an der Wand erkannt? Nun, die Aussichten für Sam Altmans Imperium sind zweifellos düsterer als noch vor einem Jahr.
Ed Zitron, PR-Profi und Allround-Tech-Experte, erläuterte in seinem Newsletter In letzter Zeit stehen OpenAI viele Hindernisse auf seinem Weg zum weiteren Erfolg im Weg. Es ist ein gut recherchierter und gründlicher Artikel, und ich werde ihm nicht unrecht tun, indem ich ihn noch einmal aufgreife. Aber die Punkte, die Zitron über den zunehmenden Leistungsdruck von OpenAI anführt, sind es wert, hervorgehoben zu werden.
OpenAI ist angeblich auf dem Weg, 5 Milliarden Dollar zu verlieren dieses Jahr. Um die steigenden Kosten für Personal (KI-Forscher sind sehr, sehr teuer), Modelltraining und Modellbereitstellung im großen Maßstab zu decken, muss das Unternehmen innerhalb der nächsten 12 bis 24 Monate eine enorme Menge Geld aufbringen. Microsoft wäre der offensichtliche Nutznießer; es besitzt einen Anteil von 49 % an OpenAI und arbeitet trotz ihrer zeitweiligen Rivalität eng mit den Produktteams von OpenAI zusammen. Aber da Microsofts Investitionsausgaben im Vergleich zum Vorjahr um 75 % (auf 19 Milliarden Dollar) gestiegen sind, in Erwartung von KI-Renditen, die noch nicht eingetreten sind, ist es nicht möglich, Wirklich haben Sie den Appetit, noch mehr Milliarden in eine langfristige, riskante Wette zu stecken?
Es würde diesen Reporter überraschen, wenn OpenAI, das bedeutendste KI-Unternehmen der Welt, nicht in der Lage wäre, das Geld, das es braucht, aus irgendwo am Ende. Es besteht jedoch eine sehr reale Möglichkeit, dass dieser Rettungsanker mit weniger günstigen Bedingungen verbunden sein wird – und vielleicht seit langem gemunkelte Änderung der Gewinnobergrenze des Unternehmens.
Das Überleben von OpenAI wird wahrscheinlich bedeuten, dass es sich weiter von seinen ursprüngliche Mission und in unbekanntes und unsicheres Gebiet. Und vielleicht war das eine zu bittere Pille für Schulman (und Co.). Man kann es ihnen kaum verdenken; angesichts der zunehmenden Skepsis von Investoren und Unternehmen steht die gesamte KI-Branche, nicht nur OpenAI, vor einer Abrechnung.
Nachricht
Die Intelligenz von Apple hat ihre Grenzen: Mit der Veröffentlichung der Entwickler-Betaversion von iOS 18.1 im letzten Monat gab Apple seinen Nutzern einen ersten echten Vorgeschmack auf die Apple Intelligence-Funktionen. Doch wie Ivan schreibt, stolpert die Funktion „Schreibwerkzeuge“, wenn es um Schimpfwörter und heikle Themen wie Drogen und Mord geht.
Googles Nest Learning Thermostat erhält ein neues Gesichtr: Nach neun langen Jahren ist Google endlich das Gerät auffrischen das gab Nest seinen Namen. Das Unternehmen kündigte am Dienstag die Einführung des Nest Learning Thermostat 4 an – 13 Jahre nach der Veröffentlichung des Originals und fast ein Jahrzehnt nach dem Learning Thermostat 3 und vor der Veranstaltung „Made by Google 2024“ nächste Woche.
Der Chatbot von X verbreitete Fehlinformationen zur Wahl: Grok hat auf X, dem sozialen Netzwerk, das früher als Twitter bekannt war, falsche Informationen über Vizepräsidentin Kamala Harris verbreitet. Das geht aus einer offener Brief Verfasst von fünf Außenministern und adressiert an Elon Musk, den CEO von Tesla, SpaceX und X, wird darin behauptet, dass der KI-gesteuerte Chatbot von X fälschlicherweise angedeutet habe, Harris sei nicht berechtigt, auf einigen US-Präsidentschaftswahlzetteln von 2024 zu erscheinen.
YouTuber verklagt OpenAI: Ein YouTube-Ersteller möchte eine Sammelklage gegen OpenAI einreichen. Er behauptet, dass das Unternehmen seine generativen KI-Modelle anhand von Millionen von Transkripten aus YouTube-Videos trainiert hat, ohne die Eigentümer der Videos zu benachrichtigen oder zu entschädigen.
Lobbyarbeit im Bereich der künstlichen Intelligenz nimmt zu: Die KI-Lobbyarbeit auf US-Bundesebene intensiviert sich inmitten eines anhaltenden generativen KI-Booms und eines Wahljahres, das die künftige KI-Regulierung beeinflussen könnte. Die Zahl der Gruppen, die bei der Bundesregierung zu KI-bezogenen Themen Lobbyarbeit betreiben, stieg von Januar bis Juli von 459 im Jahr 2023 auf 556 im ersten Halbjahr 2024.
Forschungspapier der Woche
„Offene“ Modelle wie die Llama-Familie von Meta, die Entwickler mehr oder weniger nach Belieben verwenden können, können Innovationen anregen – sie bergen jedoch auch Risiken. Sicher, viele von ihnen verfügen über Lizenzen, die Einschränkungen auferlegen, sowie integrierte Sicherheitsfilter und -tools. Aber abgesehen davon gibt es nicht viel, was einen böswilligen Akteur davon abhalten könnte, offene Modelle zu verwenden, um beispielsweise Fehlinformationen zu verbreiten oder eine Content-Farm aufzubauen.
Dies könnte in Zukunft der Fall sein.
Ein Forscherteam aus Harvard, dem gemeinnützigen Center for AI Safety und anderen Organisationen schlägt in einem technisches Dokument eine „manipulationssichere“ Methode, um die „gutartigen Fähigkeiten“ eines Modells zu bewahren und gleichzeitig unerwünschtes Verhalten des Modells zu verhindern. In Experimenten stellten sie fest, dass ihre Methode „Angriffe“ auf Modelle (wie das Austricksen von Modellen zur Bereitstellung von Informationen, die sie nicht bereitstellen sollten) wirksam verhindert, allerdings auf Kosten der Genauigkeit des Modells.
Es gibt jedoch einen Haken. Die Methode lässt sich aufgrund „rechnerischer Herausforderungen“, die eine „Optimierung“ erfordern, um den Mehraufwand zu reduzieren, nicht gut auf größere Modelle skalieren, erklären die Forscher in dem Artikel. Auch wenn die ersten Ergebnisse vielversprechend sind, ist nicht damit zu rechnen, dass sie bald zum Einsatz kommen.
Modell der Woche
Vor Kurzem ist ein neues Modell zur Bildgenerierung auf den Markt gekommen, das etablierten Modellen wie Midjourney und DALL-E 3 von OpenAI durchaus Konkurrenz zu machen scheint.
Angerufen Fluss.1das Modell – oder besser gesagt, Familie von Modellen – wurde von Black Forest Labs entwickelt, einem Startup, das von ehemaligen Stability AI-Forschern gegründet wurde, von denen viele an der Entwicklung von Stable Diffusion und seinen zahlreichen Nachfolgemodellen beteiligt waren. (Black Forest Labs gab letzte Woche seine erste Finanzierungsrunde bekannt: ein Startkapital von 31 Millionen US-Dollar unter der Leitung von Andreessen Horowitz.)
Das ausgereifteste Flux.1-Modell, Flux.1 Pro, ist hinter einer API verborgen. Black Forest Labs hat jedoch zwei kleinere Modelle, Flux.1 Dev und Flux.1 Schnell, auf der KI-Entwicklungsplattform Hugging Face veröffentlicht, mit leichten Einschränkungen hinsichtlich der kommerziellen Nutzung. Beide sind in Bezug auf die Qualität der von ihnen generierten Bilder und wie gut sie Eingabeaufforderungen folgen können, mit Midjourney und DALL-E 3 konkurrenzfähig, behauptet Black Forest Labs. Und sie sind besonders gut darin, Text in Bilder einzufügen, eine Fähigkeit, die bildgenerierenden Modellen bisher fehlte.
Black Forest Labs hat sich dazu entschieden, nicht preiszugeben, welche Daten es zum Trainieren der Modelle verwendet hat (was angesichts der mit dieser Art der KI-Bildgenerierung verbundenen Urheberrechtsrisiken Anlass zur Sorge gibt), und das Startup ist nicht näher darauf eingegangen, wie es den Missbrauch von Flux.1 verhindern will. Es verfolgt derzeit einen entschieden zurückhaltenden Ansatz – also Vorsicht, Benutzer.
Wundertüte
Unternehmen, die generative KI betreiben, berufen sich zunehmend auf die Fair-Use-Verteidigung, wenn es darum geht, Modelle mit urheberrechtlich geschützten Daten zu trainieren, ohne die Zustimmung der Dateneigentümer. Ein Beispiel dafür ist Suno, die KI-Plattform zur Musikgenerierung, die vor kurzem vor Gericht argumentierte, sie habe die Erlaubnis, Songs von Künstlern und Labels zu verwenden, ohne dass diese davon wüssten – und ohne sie dafür zu entschädigen.
Dies ist angeblich auch Nvidias (vielleicht Wunsch-)Gedanke. Laut einem 404 Media Bericht Nvidia testet diese Woche ein riesiges Videogenerierungsmodell mit dem Codenamen Cosmos an YouTube- und Netflix-Inhalten. Das Topmanagement hat dem Projekt grünes Licht gegeben und ist überzeugt, dass es dank der aktuellen Auslegung des US-amerikanischen Urheberrechts die Gerichtsverhandlungen überstehen wird.
Wird Fair Use also die Sunos, Nvidias, OpenAIs und Midjourneys dieser Welt vor dem juristischen Höllenfeuer retten? Das steht noch nicht fest – und die Gerichtsverfahren werden mit Sicherheit ewig dauern. Es könnte durchaus sein, dass die Blase der generativen KI platzt, bevor ein Präzedenzfall geschaffen wird. Wenn das nicht der Fall ist, können die Schöpfer – von Künstlern über Musiker und Autoren bis hin zu Textern und Videofilmern – entweder mit einem großen Zahltag rechnen oder sie müssen mit der unangenehmen Tatsache leben, dass alles, was sie öffentlich machen, Freiwild für das Training eines generativen KI-Unternehmens ist.