Elon Musks Grok hat am Dienstagabend eine neue KI-Bildgenerierungsfunktion veröffentlicht, die genau wie der KI-Chatbot nur sehr wenige Sicherheitsvorkehrungen bietet. Das bedeutet, dass Sie beispielsweise gefälschte Bilder von Donald Trump erstellen können, der in der Joe Rogan Show Marihuana raucht, und diese direkt auf die X-Plattform hochladen können. Aber es ist nicht wirklich Elon Musks KI-Unternehmen, das diesen Wahnsinn vorantreibt; vielmehr steckt hinter der umstrittenen Funktion ein neues Startup – Black Forest Labs.
Die Zusammenarbeit zwischen den beiden wurde am Dienstag bekannt gegeben, als xAI angekündigt Es arbeitet mit Black Forest zusammen, um Groks Bildgenerator mit seinem FLUX.1-Modell zu betreiben. Black Forest, ein KI-Bild- und Video-Startup, das am 1. August an den Start ging, scheint mit Musks Vision von Grok als „Anti-Woke-Chatbot“ zu sympathisieren, ohne die strengen Leitplanken, die in OpenAIs Dall-E oder Googles Imagen zu finden sind. Die Social-Media-Site ist bereits überflutet mit empörenden Bildern von der neuen Funktion.
Black Forest Labs hat seinen Sitz in Deutschland und ist vor kurzem mit 31 Millionen Dollar Startkapital unter der Leitung von Andreessen Horowitz aus der Versenkung hervorgetreten, so ein Pressemitteilung. Zu den weiteren namhaften Investoren zählen Garry Tan, CEO von Y Combinator, und Brendan Iribe, ehemaliger CEO von Oculus. Die Mitbegründer des Startups, Robin Rombach, Patrick Esser und Andreas Blattmann, waren früher Forscher, die an der Entwicklung der Stable Diffusion-Modelle von Stability AI mitwirkten.
Entsprechend Künstliche AnalyseDie FLUX.1-Modelle von Black Forest Lab übertreffen die KI-Bildgeneratoren von Midjourney und OpenAI in Bezug auf die Qualität, zumindest laut der Bewertung der Benutzer in ihren Bildarena.
Das Startup sagt, es „macht unsere Modelle einem breiten Publikum zugänglich“, mit Open-Source-KI-Bildgenerierungsmodellen auf Umarmendes Gesicht Und GitHubDas Unternehmen teilte mit, dass es in Kürze auch die Entwicklung eines Text-zu-Video-Modells planen werde.
Black Forest Labs antwortete nicht sofort auf die Bitte von Tech um einen Kommentar.
In seiner Einführungsmitteilung sagt das Unternehmen, es wolle „das Vertrauen in die Sicherheit dieser Modelle stärken“. Manche könnten jedoch behaupten, die Flut der von der KI generierten Bilder am X Wednesday habe das Gegenteil bewirkt. Viele Bilder, die Benutzer mit dem Tool von Grok und Black Forest Labs erstellen konnten, wie etwa Pikachu mit einem Sturmgewehr, konnten mit den Bildgeneratoren von Google oder OpenAI nicht reproduziert werden. Es besteht kein Zweifel daran, dass für das Training des Modells urheberrechtlich geschütztes Bildmaterial verwendet wurde.
Das ist irgendwie der Punkt
Dieser Mangel an Sicherheitsvorkehrungen ist wahrscheinlich ein Hauptgrund dafür, dass Musk sich für diesen Kollaborateur entschieden hat. Musk hat deutlich gemacht, dass er glaubt, dass Sicherheitsvorkehrungen KI-Modelle tatsächlich weniger sicher machen. „Die Gefahr, KI zu trainieren, aufzuwachen – mit anderen Worten zu lügen – ist tödlich“, sagte Musk in einem twittern ab 2022.
Vorstandsmitglied von Black Forest Labs, Anjney Midha, veröffentlicht am X eine Reihe von Vergleichen zwischen Bildern, die am ersten Tag der Einführung von Google Gemini und Groks Flux-Kollaboration erstellt wurden. Der Thread hebt die gut dokumentierten Probleme von Google Gemini bei der Erstellung historisch korrekter Bilder von Personen hervor, insbesondere durch die unangemessene Einfügung von ethnischer Vielfalt in Bilder.
„Ich bin froh @ibab und das Team haben dies ernst genommen und die richtige Entscheidung getroffen“, sagte Midha in einem twitternund verweist auf die scheinbare Vermeidung dieses Problems durch FLUX.1 (und erwähnt den Bericht des xAI-Leitforschers Igor Babuschkin).
Aufgrund dieses Fehlers entschuldigte sich Google und schaltete im Februar die Möglichkeit von Gemini ab, Bilder von Personen zu generieren. Bis heute erlaubt das Unternehmen Gemini immer noch nicht, Bilder von Personen zu generieren.
Ein Feuerschlauch voller Fehlinformationen
Dieser allgemeine Mangel an Sicherheitsvorkehrungen könnte Musk Probleme bereiten. Die X-Plattform wurde kritisiert, als KI-generierte Deepfake-Bilder, die Taylor Swift darstellen, auf der Plattform viral gingen. Abgesehen von diesem Vorfall generiert Grok halluzinierte Schlagzeilen die den Benutzern auf X fast wöchentlich angezeigt werden.
Erst letzte Woche forderten fünf Außenminister X auf, die Verbreitung von Falschinformationen über Kamala Harris auf X einzustellen. Anfang dieses Monats erneut geteilt ein Video, bei dem die Stimme von Harris mithilfe künstlicher Intelligenz geklont wurde, sodass es so aussah, als hätte die Vizepräsidentin zugegeben, dass sie im Rahmen einer „Diversity-Einstellung“ eingestellt worden sei.
Musk scheint darauf aus zu sein, dass derartige Falschinformationen die Plattform durchdringen. Indem er den Benutzern erlaubt, Groks KI-Bilder, die anscheinend keine Wasserzeichen aufweisen, direkt auf der Plattform zu posten, hat er im Wesentlichen einen Feuerschlauch an Falschinformationen geöffnet, der auf jeden X-Newsfeed gerichtet ist.