Hallo Leute, willkommen beim regelmäßigen KI-Newsletter von Tech.
Diese Woche deuten Umfragen darauf hin, dass die Generation Z – regelmäßig Gegenstand der Faszination der Mainstream-Medien – sehr gemischte Meinungen zur KI hat.
Samsung kürzlich befragte über 5.000 Angehörige der Generation Z in Frankreich, Deutschland, Korea, Großbritannien und den USA zu ihren Ansichten zu KI und Technologie im Allgemeinen. Fast 70 % gaben an, dass sie KI als unverzichtbare Ressource für arbeitsbezogene Aufgaben wie das Zusammenfassen von Dokumenten und Besprechungen und das Durchführen von Recherchen sowie für nicht arbeitsbezogene Aufgaben wie das Finden von Inspiration und Brainstorming betrachten.
Doch laut einer Bericht Wie EduBirdie, ein professioneller Essay-Schreibservice, Anfang des Jahres veröffentlichte, haben mehr als ein Drittel der Angehörigen der Generation Z, die die Chatbot-Plattform ChatGPT und andere KI-Tools von OpenAI bei der Arbeit nutzen, ein schlechtes Gewissen dabei. Die Befragten äußerten Bedenken, dass KI ihre kritischen Denkfähigkeiten einschränken und ihre Kreativität behindern könnte.
Natürlich müssen wir beide Umfragen mit Vorsicht genießen. Samsung ist nicht gerade unparteiisch; das Unternehmen verkauft und entwickelt viele KI-gestützte Produkte und hat daher ein begründetes Interesse daran, KI in einem insgesamt schmeichelhaften Licht darzustellen. Das gilt auch für EduBirdie, dessen Kerngeschäft in direktem Wettbewerb mit ChatGPT und anderen KI-Schreibassistenten steht. Es würde es zweifellos vorziehen, wenn die Leute gegenüber KI misstrauisch wären – insbesondere gegenüber KI-Apps, die Tipps für Aufsätze geben.
Es könnte aber sein, dass die Generation Z zwar KI nicht billigen oder gar boykottieren will (wenn das überhaupt möglich wäre), ist sich der möglichen Folgen von KI und Technologie im Allgemeinen stärker bewusst als frühere Generationen.
In einem separaten Studie Laut der National Society of High School Scholars, einer akademischen Ehrengesellschaft, gab die Mehrheit der Angehörigen der Generation Z (55 %) an, dass sie glauben, dass KI in den nächsten zehn Jahren eher negative als positive Auswirkungen auf die Gesellschaft haben wird. 55 % glauben, dass KI erhebliche Auswirkungen auf die Privatsphäre haben wird – und zwar nicht im positiven Sinne.
Und die Meinungen der Generation Z sind wichtig. Bericht NielsenIQ prognostiziert, dass die Generation Z bald die wohlhabendste Generation sein wird immerwobei ihr Ausgabenpotenzial bis 2030 12 Billionen US-Dollar erreichen und bis 2029 die Ausgaben der Babyboomer übertreffen wird.
Da einige KI-Startups bis zu 50 % ihres Umsatzes für Hosting, Rechenleistung und Software ausgeben (laut Daten der Wirtschaftsprüfungsgesellschaft Kruze), zählt jeder Dollar. Daher ist es ein kluger Geschäftszug, die Ängste der Generation Z vor KI zu zerstreuen. Ob ihre Ängste dürfen Angesichts der zahlreichen technischen, ethischen und rechtlichen Herausforderungen, die KI mit sich bringt, bleibt abzuwarten, ob diese Probleme gelöst werden können. Aber das Mindeste, was Unternehmen tun können, ist, es zu versuchen. Ein Versuch schadet nie.
Nachricht
OpenAI unterzeichnet mit Condé: OpenAI hat einen Vertrag mit Condé Nast – dem Herausgeber renommierter Medien wie The New Yorker, Vogue und Wired – geschlossen, um Geschichten aus seinen Besitztümern in OpenAIs KI-gestützter Chatbot-Plattform ChatGPT und seinem Suchprototyp SearchGPT zu präsentieren und seine KI mit den Inhalten von Condé Nast zu trainieren.
Bedarf an KI bedroht Wasserversorgung: Der KI-Boom treibt die Nachfrage nach Rechenzentren an und treibt damit den Wasserverbrauch in die Höhe. In Virginia – wo sich die weltweit größte Konzentration an Rechenzentren befindet – stieg der Wasserverbrauch zwischen 2019 und 2023 um fast zwei Drittel, von 1,13 Milliarden Gallonen auf 1,85 Milliarden Gallonen, so die Financial Times.
Zwillinge Live Und Erweiterter Sprachmodus Bewertungen: Zwei neue KI-gestützte, sprachfokussierte Chat-Erlebnisse wurden diesen Monat von Technologiegiganten eingeführt: Gemini Live von Google und Advanced Voice Mode von OpenAI. Beide bieten realistische Stimmen und die Freiheit, den Bot jederzeit zu unterbrechen.
Trump teilt Taylor Swifts Deepfakes erneut: Am Sonntag veröffentlichte der ehemalige Präsident Donald Trump eine Sammlung von Meme auf Truth Social, wo es so aussah, als würden Taylor Swift und ihre Fans seine Kandidatur unterstützen. Doch meine Kollegin Amanda Silberling schreibt, dass diese Bilder mit Inkrafttreten neuer Gesetze tiefere Auswirkungen auf die Verwendung von KI-generierten Bildern in politischen Kampagnen haben könnten.
Die große Debatte über SB 1047: Der kalifornische Gesetzentwurf SB 1047, der durch KI verursachte Katastrophen in der realen Welt verhindern soll, bevor sie eintreten, stößt weiterhin auf prominente Kritik. Erst kürzlich veröffentlichte die Kongressabgeordnete Nancy Pelosi eine Erklärung, in der sie ihre Opposition darlegte und den Gesetzentwurf als „gut gemeint“, aber „schlecht informiert“ bezeichnete.
Forschungspapier der Woche
Der Transformer, der 2017 von einem Team von Google-Forschern vorgeschlagen wurde, hat sich mit Abstand zur dominierenden Architektur für generative KI-Modelle entwickelt. Transformer bilden die Grundlage für OpenAIs Videogenerierungsmodell Sora, die neueste Version von Stable Diffusion and Flux. Sie bilden auch das Herzstück von Textgenerierungsmodellen wie Claude von Anthropics und Llama von Meta.
Und jetzt verwendet Google sie, um Musikempfehlungen zu geben.
In einem aktuellen Blogbeitrag beschreibt ein Team von Google Research, einer der vielen Forschungs- und Entwicklungsabteilungen von Google, das neue (oder etwas neuartige) transformerbasierte System hinter den YouTube Music-Empfehlungen. Das System, so heißt es, ist darauf ausgelegt, Signale zu erfassen, darunter die „Absicht“ der Aktion eines Benutzers (z. B. das Unterbrechen eines Titels), die „Auffälligkeit“ dieser Aktion (z. B. der Prozentsatz des abgespielten Titels) und andere Metadaten, um verwandte Titel zu ermitteln, die dem Benutzer gefallen könnten.
Google sagt, dass der transformerbasierte Empfehlungsdienst zu einer „signifikanten“ Reduzierung der Musiküberspringrate und einer Verlängerung der Zeit geführt hat, die Benutzer mit Musikhören verbrachten. Klingt (kein Wortspiel beabsichtigt) nach einem Sieg für El Goog.
Modell der Woche
Obwohl es nicht gerade neu ist, ist GPT-4o von OpenAI mein Favorit für das Modell der Woche, da es jetzt anhand benutzerdefinierter Daten feinabgestimmt werden kann.
Am Dienstag hat OpenAI öffentlich die Feinabstimmung für GPT-4o gestartet. Dabei können Entwickler proprietäre Datensätze verwenden, um die Struktur und den Ton der Antworten des Modells anzupassen oder das Modell dazu zu bringen, „domänenspezifischen“ Anweisungen zu folgen.
Feinabstimmung ist kein Allheilmittel, aber, wie OpenAI in einem Blog-Beitrag Die Ankündigung dieser Funktion kann große Auswirkungen auf die Modellleistung haben.
Wundertüte
Ein neuer Tag, eine neue Urheberrechtsklage wegen generativer KI, diesmal im Zusammenhang mit Anthropologie.
Eine Gruppe von Autoren und Journalisten hat diese Woche vor einem Bundesgericht eine Sammelklage gegen Anthropic eingereicht. Sie behaupten, dass das Unternehmen „groß angelegten Diebstahl“ begangen habe, indem es seinen KI-Chatbot Claude anhand von Raubkopien von E-Books und Artikeln trainiert habe.
Anthropic habe „durch den Diebstahl von Hunderttausenden urheberrechtlich geschützter Bücher ein Multimilliarden-Dollar-Geschäft aufgebaut“, so die Kläger in ihrer Klage. „Menschen, die aus Büchern lernen, kaufen rechtmäßige Kopien davon oder leihen sie aus Bibliotheken aus, die sie kaufen, und bieten damit den Autoren und Schöpfern zumindest eine gewisse Entschädigung.“
Die meisten Modelle werden mit Daten trainiert, die von öffentlichen Websites und Datensätzen aus dem Internet stammen. Unternehmen argumentieren, dass Fair Use ihre Bemühungen abschirmt, Daten wahllos abzugreifen und sie zum Trainieren kommerzieller Modelle zu verwenden. Viele Urheberrechtsinhaber sind jedoch anderer Meinung und reichen ebenfalls Klagen ein, um diese Praxis zu unterbinden.
In diesem jüngsten Verfahren gegen Anthropic wird dem Unternehmen vorgeworfen, „The Pile“ zu verwenden, eine Sammlung von Datensätzen, die eine riesige Bibliothek mit Raubkopien von E-Books namens „Books3“ enthält. Anthropic kürzlich bestätigte gegenüber Vox, dass The Pile zu den Datensätzen in Claudes Trainingssatz gehörte.
Die Kläger fordern Schadensersatz in unbekannter Höhe sowie die dauerhafte Untersagung des Missbrauchs der Werke der Autoren durch Anthropic.