Hallo Leute, willkommen zum regelmäßigen KI-Newsletter von Tech. Wenn Sie dies jeden Mittwoch in Ihrem Posteingang haben möchten, melden Sie sich hier an.
Es war erschreckend einfach, am Wahltag ein überzeugendes Audio-Deepfake von Kamala Harris zu erstellen. Es hat mich 5 Dollar gekostet und weniger als zwei Minuten gedauert, was zeigt, wie billige, allgegenwärtige generative KI der Desinformation Tür und Tor geöffnet hat.
Es war nicht meine ursprüngliche Absicht, einen Harris-Deepfake zu erstellen. Ich habe mit Cartesia herumgespielt Sprachwechslerein Modell, das Ihre Stimme in eine andere Stimme verwandelt und dabei die Prosodie des Originals beibehält. Diese zweite Stimme kann ein „Klon“ der Stimme einer anderen Person sein – Cartesia erstellt aus jeder 10-Sekunden-Aufnahme ein digitales Sprachdouble.
Ich fragte mich also, ob Voice Changer meine Stimme in die von Harris verwandeln würde? Ich habe 5 US-Dollar bezahlt, um Cartesias Funktion zum Klonen von Stimmen freizuschalten, einen Klon von Harris‘ Stimme anhand aktueller Wahlkampfreden erstellt und diesen Klon als Ausgabe im Voice Changer ausgewählt.
Es hat wie ein Zauber funktioniert:
Ich bin mir sicher, dass Cartesia nicht unbedingt die Absicht hatte, seine Werkzeuge auf diese Weise zu nutzen. Um das Klonen von Stimmen zu aktivieren, verlangt Cartesia, dass Sie ein Kästchen ankreuzen, das angibt, dass Sie nichts Schädliches oder Illegales erzeugen und dass Sie dem Klonen Ihrer Sprachaufzeichnungen zustimmen.
Aber das ist nur ein Ehrensystem. Ohne wirkliche Schutzmaßnahmen hindert eine Person nichts daran, so viele „schädliche oder illegale“ Deepfakes zu erstellen, wie sie möchte.
Das ist ein Problem, das versteht sich von selbst. Was ist also die Lösung? Gibt es einen? Cartesia kann wie einige andere auch eine Sprachverifizierung implementieren andere Plattformen haben es getan. Aber bis es soweit ist, stehen die Chancen gut, dass ein neues, uneingeschränktes Tool zum Klonen von Stimmen auf den Markt gekommen sein wird.
Ich habe letzte Woche auf der Disrupt-Konferenz von TC mit Experten über genau dieses Thema gesprochen. Einige befürworteten die Idee unsichtbarer Wasserzeichen, damit leichter erkennbar ist, ob Inhalte KI-generiert wurden. Andere verwiesen auf Gesetze zur Inhaltsmoderation wie den Online Safety Act im Vereinigten Königreich, die ihrer Meinung nach dazu beitragen könnten, die Flut der Desinformation einzudämmen.
Nennen Sie mich einen Pessimisten, aber ich glaube, diese Schiffe sind gesegelt. Wir haben es, wie der CEO des Center for Countering Digital Hate Imran Ahmed es ausdrückte, mit einer „ewigen Bullenmaschine“ zu tun.
Desinformation verbreitet sich in besorgniserregendem Tempo. Einige prominente Beispiele aus dem vergangenen Jahr sind: ein Bot-Netzwerk auf Doch die meisten dieser Inhalte zielen nicht auf US-Wähler und technikaffine Menschen ab. laut True Media.org Analyse, daher neigen wir dazu, seine Präsenz an anderer Stelle zu unterschätzen.
Das Volumen KI-generierter Deepfakes stieg zwischen 2019 und 2020 um 900 %. nach auf Daten des Weltwirtschaftsforums.
Mittlerweile gibt es relativ wenige Gesetze zur Bekämpfung von Deepfakes. Und die Deepfake-Erkennung droht zu einem nie endenden Wettrüsten zu werden. Einige Tools entscheiden sich zwangsläufig nicht für den Einsatz von Sicherheitsmaßnahmen wie Wasserzeichen oder werden für ausdrücklich bösartige Anwendungen eingesetzt.
Abgesehen von einer grundlegenden Veränderung denke ich, dass das Beste, was wir tun können, darin besteht, äußerst skeptisch gegenüber dem zu sein, was da draußen ist – insbesondere gegenüber viralen Inhalten. Es ist nicht mehr so einfach wie früher, online die Wahrheit von der Fiktion zu unterscheiden. Aber wir haben immer noch die Kontrolle darüber, was wir teilen und was nicht. Und das ist viel wirkungsvoller, als es scheint.
Nachricht
Überprüfung der ChatGPT-Suche: Mein Kollege Max hat die neue Suchintegration von OpenAI für ChatGPT, ChatGPT Search, ausprobiert. Er fand es in mancher Hinsicht beeindruckend, bei kurzen Anfragen mit nur wenigen Wörtern jedoch unzuverlässig.
Amazon-Drohnen in Phoenix: Wenige Monate nach der Einstellung seines drohnenbasierten Lieferprogramms Prime Air in Kalifornien hat Amazon nach eigenen Angaben damit begonnen, in Phoenix, Arizona, Lieferungen an ausgewählte Kunden per Drohne durchzuführen.
Ex-Meta AR-Leiter tritt OpenAI bei: Die ehemalige Leiterin der AR-Brillen-Aktivitäten von Meta, darunter Orion, gab am Montag bekannt, dass sie zu OpenAI wechselt, um die Leitung für Robotik und Verbraucherhardware zu übernehmen. Die Nachricht kommt, nachdem OpenAI den Mitbegründer des X-Herausforderers (ehemals Twitter) Pebble engagiert hat.
Von der Berechnung zurückgehalten: In einem Reddit AMASam Altman, CEO von OpenAI, gab zu, dass mangelnde Rechenkapazität ein wesentlicher Faktor ist, der das Unternehmen daran hindert, Produkte so oft auszuliefern, wie es möchte.
KI-generierte Rückblicke: Amazon hat „X-Ray Recaps“ eingeführt, eine generative KI-gestützte Funktion, die prägnante Zusammenfassungen ganzer TV-Staffeln, einzelner Episoden und sogar Teile von Episoden erstellt.
Anthropische Wanderungen Haiku-Preise: Das neueste KI-Modell von Anthropic ist da: Claude 3.5 Haiku. Es ist jedoch teurer als die letzte Generation und kann im Gegensatz zu den anderen Modellen von Anthropic noch keine Bilder, Grafiken oder Diagramme analysieren.
Apple erwirbt Pixelmator: KI-gestützter Bildeditor Pixelmator angekündigt gab am Freitag bekannt, dass es von Apple übernommen wird. Der Deal kommt zustande, da Apple bei der Integration von KI in seine Imaging-Apps aggressiver geworden ist.
Eine „Agentin“ Alexa: Andy Jassy, CEO von Amazon, deutete letzte Woche eine verbesserte „agentische“ Version des Alexa-Assistenten des Unternehmens an – eine, die im Namen eines Benutzers Maßnahmen ergreifen könnte. Berichten zufolge kam es bei der überarbeiteten Alexa zu Verzögerungen und technischen Rückschlägen und sie wird möglicherweise erst irgendwann im Jahr 2025 auf den Markt kommen.
Forschungspapier der Woche
Pop-ups im Internet können auch KI täuschen – nicht nur Großeltern.
In einem neuen PapierForscher von Georgia Tech, der University of Hong Kong und Stanford zeigen, dass KI-„Agenten“ – KI-Modelle, die Aufgaben erledigen können – von „gegnerischen Pop-ups“ gekapert werden können, die die Modelle anweisen, beispielsweise schädliche Dateierweiterungen herunterzuladen .
Einige dieser Pop-ups sind ganz offensichtlich Fallen für das menschliche Auge – aber die KI ist nicht so anspruchsvoll. Die Forscher sagen, dass die von ihnen getesteten Bild- und Textanalysemodelle Pop-ups in 86 % der Fälle nicht ignorierten und daher die Wahrscheinlichkeit, Aufgaben zu erledigen, um 47 % geringer war.
Grundlegende Abwehrmaßnahmen wie die Anweisung an die Modelle, die Pop-ups zu ignorieren, waren nicht wirksam. „Der Einsatz computergestützter Agenten birgt immer noch erhebliche Risiken“, schreiben die Mitautoren der Studie, „und es sind robustere Agentensysteme erforderlich, um einen sicheren Agenten-Workflow zu gewährleisten.“
Modell der Woche
Meta gab gestern bekannt, dass es mit Partnern zusammenarbeitet, um seine „offenen“ KI-Modelle von Llama für Verteidigungsanwendungen verfügbar zu machen. Heute gab einer dieser Partner, Scale AI, bekannt Verteidigungslamaein Modell, das auf Metas Llama 3 aufbaut und „angepasst und fein abgestimmt ist, um amerikanische nationale Sicherheitsmissionen zu unterstützen“.
Verteidigungslama, das in Scale erhältlich ist Donavan Laut Scale wurde die Chatbot-Plattform für US-Regierungskunden für die Planung von Militär- und Geheimdienstoperationen optimiert. Defense Llama kann verteidigungsbezogene Fragen beantworten, beispielsweise wie ein Gegner einen Angriff auf eine US-Militärbasis planen könnte.
Was unterscheidet das Defense Llama vom Standard-Lama? Nun, Scale sagt, es sei auf Inhalte abgestimmt worden, die für militärische Operationen relevant sein könnten, wie etwa die Militärdoktrin und das humanitäre Völkerrecht sowie die Fähigkeiten verschiedener Waffen und Verteidigungssysteme. Es ist auch nicht darauf beschränkt, Fragen zur Kriegsführung zu beantworten, wie es bei einem zivilen Chatbot der Fall sein könnte:
Es ist jedoch nicht klar, wer geneigt sein könnte, es zu nutzen.
Das US-Militär war langsam bei der Einführung generativer KI – und skeptisch gegenüber seinem ROI. Bisher ist die US-Armee die nur Zweig der US-Streitkräfte mit einem generativen KI-Einsatz. Militärbeamte äußerten Bedenken hinsichtlich Sicherheitslücken in kommerziellen Modellen sowie rechtlicher Herausforderungen im Zusammenhang mit der Weitergabe von Geheimdienstdaten und der Unvorhersehbarkeit von Modellen bei Grenzfällen.
Wundertüte
Spawning AI, ein Startup, das Tools entwickelt, die es Entwicklern ermöglichen, sich vom generativen KI-Training abzumelden, hat einen Bilddatensatz zum Training von KI-Modellen veröffentlicht, der angeblich vollständig gemeinfrei ist.
Die meisten generativen KI-Modelle werden auf öffentlichen Webdaten trainiert, von denen einige möglicherweise urheberrechtlich geschützt sind oder einer restriktiven Lizenz unterliegen. OpenAI und viele andere KI-Anbieter argumentieren so faire Nutzung Die Doktrin schützt sie vor Urheberrechtsansprüchen. Aber das hat Dateneigentümer nicht davon abgehalten aus Klagen einreichen.
Laut Spawning AI enthält sein Trainingsdatensatz mit 12,4 Millionen Bildunterschriftenpaaren nur Inhalte mit „bekannter Herkunft“ und „mit klaren, eindeutigen Rechten gekennzeichnet“ für das KI-Training. Im Gegensatz zu einigen anderen Datensätzen kann er auch von einem dedizierten Host heruntergeladen werden, sodass kein Web-Scrape erforderlich ist.
„Bezeichnenderweise ist der Public-Domain-Status des Datensatzes ein wesentlicher Bestandteil dieser größeren Ziele“, schreibt Spawning in einem Blogbeitrag. „Datensätze, die urheberrechtlich geschützte Bilder enthalten, werden weiterhin auf Web-Scraping angewiesen sein, da das Hosten der Bilder das Urheberrecht verletzen würde.“
Der Datensatz von Spawning, PD12M, und eine für „ästhetisch ansprechende“ Bilder kuratierte Version, PD3M, sind zu finden unter diesem Link.