Diese Woche in der KI: Wie Kamala Harris die KI regulieren könnte

Hallo Leute, willkommen beim regelmäßigen KI-Newsletter von Tech.

Letzten Sonntag kündigte Präsident Joe Biden an, dass er nicht mehr beabsichtige, sich zur Wiederwahl zu stellen. Stattdessen bot er seine „vollständige Unterstützung“ für Vizepräsidentin Kamala Harris als Kandidatin der Demokratischen Partei an. In den darauffolgenden Tagen sicherte sich Harris die Unterstützung der demokratischen Delegiertenmehrheit.

Harris hat sich offen zur Technologie- und KI-Politik geäußert. Was würde es für die KI-Regulierung in den USA bedeuten, sollte sie die Präsidentschaft gewinnen?

Mein Kollege Anthony Ha hat am Wochenende ein paar Worte dazu geschrieben. Harris und Präsident Biden zuvor sagten sie, sie „lehnen die falsche Wahl ab, die suggeriert, wir könnten entweder die Öffentlichkeit schützen oder Innovationen vorantreiben“. Damals hatte Biden eine Durchführungsverordnung erlassen, in der er Unternehmen aufforderte, neue Standards für die Entwicklung von KI festzulegen. Harris sagte, die freiwilligen Verpflichtungen seien „ein erster Schritt in Richtung einer sichereren KI-Zukunft, und es werden noch weitere folgen“, denn „in Ermangelung von Regulierung und starker staatlicher Aufsicht stellen einige Technologieunternehmen den Profit über das Wohlergehen ihrer Kunden, die Sicherheit unserer Gemeinschaften und die Stabilität unserer Demokratien.“

Ich habe auch mit KI-Politikexperten gesprochen, um ihre Ansichten zu erfahren. Die meisten von ihnen sagten, sie würden von einer Harris-Regierung Kontinuität erwarten, im Gegensatz zu einem Abbau der aktuellen KI-Politik und einer allgemeinen Deregulierung, wie sie Donald Trumps Lager propagiert.

Lee Tiedrich, KI-Berater bei der Global Partnership on Artificial Intelligence, sagte gegenüber Tech, Bidens Unterstützung für Harris könne „die Chancen erhöhen, die Kontinuität“ in der US-KI-Politik aufrechtzuerhalten.“[This is] eingerahmt durch die KI-Exekutivverordnung von 2023 und auch geprägt durch Multilateralismus durch die Vereinten Nationen, die G7, die OECD und andere Organisationen“, sagte sie. „Die Executive Order und die damit verbundenen Maßnahmen fordern auch eine stärkere staatliche Aufsicht über KI, unter anderem durch verstärkte Durchsetzung, strengere KI-Regeln und -Richtlinien der Behörden, einen Schwerpunkt auf Sicherheit und bestimmte obligatorische Tests und Offenlegungen für einige große KI-Systeme.“

Sarah Kreps, Professorin für Regierungslehre an der Cornell University mit einem besonderen Interesse an KI, stellte fest, dass in bestimmten Segmenten der Technologiebranche die Wahrnehmung vorherrsche, dass die Biden-Regierung zu aggressiv auf Regulierung gesetzt habe und dass die KI-Dekrete ein „Mikromanagement-Overkill“ seien. Sie rechnet nicht damit, dass Harris die unter Biden eingeführten KI-Sicherheitsprotokolle zurücknehmen würde, fragt sich aber, ob eine Harris-Regierung einen weniger Top-down-Regulierungsansatz verfolgen könnte, um Kritiker zu besänftigen.

Krystal Kauffman, wissenschaftliche Mitarbeiterin am Distributed AI Research Institute, stimmt Kreps und Tiedrich zu, dass Harris höchstwahrscheinlich Bidens Arbeit fortsetzen wird, um die mit dem Einsatz von KI verbundenen Risiken anzugehen und die Transparenz in Bezug auf KI zu erhöhen. Sie hofft jedoch, dass Harris, sollte sie die Präsidentschaftswahl für sich entscheiden, bei der Formulierung ihrer Politik ein breiteres Netz von Interessenvertretern auswerfen wird – ein Netz, das die Datenarbeiter erfasst, deren Notlage (schlechte Bezahlung, schlechte Arbeitsbedingungen und psychische Probleme) oft unbeachtet bleibt.

„Harris muss in Zukunft die Stimmen der Datenarbeiter, die bei der Programmierung von KI helfen, in diese wichtigen Gespräche einbeziehen“, sagte Kauffman. „Wir können nicht länger vertrauliche Treffen mit Tech-CEOs als Mittel zur Ausarbeitung von Richtlinien betrachten. Wenn es so weitergeht, werden wir damit definitiv auf den falschen Weg geraten.“

Nachricht

Meta bringt neue Modelle heraus: Meta hat diese Woche Llama 3.1 405B veröffentlicht, ein Textgenerierungs- und -analysemodell mit 405 Milliarden Parametern. Llama 3.1 405B, das bisher größte „offene“ Modell, findet seinen Weg in verschiedene Meta-Plattformen und -Apps, darunter das Meta AI-Erlebnis auf Facebook, Instagram und Messenger.

Adobe aktualisiert Firefly: Adobe hat am Dienstag neue Firefly-Tools für Photoshop und Illustrator veröffentlicht, die Grafikdesignern mehr Möglichkeiten bieten, die unternehmenseigenen KI-Modelle zu nutzen.

Gesichtserkennung in der Schule: Eine englische Schule wurde von der britischen Datenschutzbehörde offiziell gerügt, nachdem sie Gesichtserkennungstechnologie eingesetzt hatte, ohne die ausdrückliche Einwilligung der Schüler zur Verarbeitung ihrer Gesichtsscans einzuholen.

Cohere sammelt eine halbe Milliarde ein: Cohere, ein generatives KI-Startup, das von ehemaligen Google-Forschern mitgegründet wurde, hat 500 Millionen Dollar neues Geld von Investoren wie Cisco und AMD eingesammelt. Anders als viele seiner Konkurrenten im Bereich generative KI-Startups passt Cohere KI-Modelle für große Unternehmen an – ein Schlüsselfaktor für seinen Erfolg.

Interview mit dem KI-Direktor der CIA: Im Rahmen der laufenden Tech-Reihe „Frauen in der KI“ interviewte ich Lakshmi Raman, die KI-Direktorin der CIA. Wir sprachen über ihren Weg zur Direktorin sowie über den Einsatz von KI bei der CIA und über die Balance, die zwischen der Akzeptanz neuer Technologien und ihrem verantwortungsvollen Einsatz gefunden werden muss.

Forschungspapier der Woche

Schon mal vom Transformer gehört? Er ist die bevorzugte KI-Modellarchitektur für komplexe Denkaufgaben und treibt Modelle wie GPT-4o von OpenAI, Claude von Anthropics und viele andere an. Doch so leistungsstark Transformer auch sind, sie haben ihre Schwächen. Deshalb untersuchen Forscher mögliche Alternativen.

Einer der vielversprechendsten Kandidaten sind State Space Models (SSM), die die Eigenschaften mehrerer älterer Arten von KI-Modellen wie rekurrierenden neuronalen Netzwerken und Convolutional Neural Networks kombinieren, um eine rechnerisch effizientere Architektur zu schaffen, die lange Datensequenzen verarbeiten kann (denken Sie an Romane und Filme). Und eine der bisher stärksten Inkarnationen von SSMs, Mamba-2, wurde in einem Papier diesen Monat von den Forschungswissenschaftlern Tri Dao (Professor in Princeton) und Albert Gu (Carnegie Mellon).

Wie sein Vorgänger Mamba kann Mamba-2 größere Mengen an Eingabedaten verarbeiten als transformerbasierte Äquivalente und bleibt dabei bei bestimmten Aufgaben der Sprachgenerierung leistungsmäßig mit transformerbasierten Modellen konkurrenzfähig. Dao und Gu meinen, dass SSMs, sollten sie sich weiter verbessern, eines Tages auf Standardhardware laufen werden – und leistungsfähigere generative KI-Anwendungen liefern werden, als dies mit den heutigen Transformatoren möglich ist.

Modell der Woche

In einer weiteren aktuellen Entwicklung im Bereich der Architektur hat ein Forscherteam einen neuen Typ eines generativen KI-Modells entwickelt, von dem sie behaupten, dass es sowohl mit den stärksten Transformatoren mithalten – oder sie übertreffen – kann. Und Mamba in Sachen Effizienz.

Die Architektur, die als Test-Time-Training-Modelle (TTT-Modelle) bezeichnet wird, kann laut den Forschern über Millionen von Tokens hinweg argumentieren und in zukünftigen, verfeinerten Designs potenziell auf Milliarden von Tokens skaliert werden. (Bei der generativen KI sind „Tokens“ Rohtextstücke und andere mundgerechte Datenstücke.) Da TTT-Modelle viel mehr Tokens verarbeiten können als herkömmliche Modelle und dies tun, ohne die Hardwareressourcen übermäßig zu belasten, sind sie nach Ansicht der Forscher für die „nächste Generation“ generativer KI-Apps geeignet.

Um tiefer in die TTT-Modelle einzutauchen, sehen Sie sich unser aktuelles Feature an.

Wundertüte

Stability AI, das generative KI-Startup, das kürzlich von Investoren, darunter Napster-Mitbegründer Sean Parker, vor dem finanziellen Ruin gerettet wurde, hat mit seinen restriktiven Nutzungsbedingungen und Lizenzrichtlinien für seine neuen Produkte für erhebliche Kontroversen gesorgt.

Um Stability AIs neuestes offenes KI-Bildmodell, Stable Diffusion 3, kommerziell nutzen zu können, mussten Unternehmen mit einem Jahresumsatz von weniger als 1 Million US-Dollar bis vor Kurzem eine „Creator“-Lizenz erwerben, die die Gesamtzahl der Bilder, die sie generieren konnten, auf 6.000 pro Monat begrenzte. Das größere Problem für viele Kunden waren jedoch die restriktiven Feinabstimmungsbedingungen von Stability, die Stability AI das Recht gaben (oder zumindest den Anschein erweckten), Gebühren für jedes Modell zu erheben und die Kontrolle über jedes Modell auszuüben, das mit von Stable Diffusion 3 generierten Bildern trainiert wurde.

Der rigorose Ansatz von Stability AI veranlasste CivitAI, einen der größten Anbieter von bildgenerierenden Modellen, dazu, ein vorübergehendes Verbot für Modelle zu verhängen, die auf Bildern von Stable Diffusion 3 basieren oder mit diesen trainiert wurden, während das Unternehmen rechtlichen Rat hinsichtlich der neuen Lizenz einholte.

„Die Sorge ist, dass diese Lizenz nach unserem derzeitigen Verständnis Stability AI zu viel Macht über die Verwendung nicht nur aller auf Stable Diffusion 3 abgestimmten Modelle einräumt, sondern auch aller anderen Modelle, die Stable Diffusion 3-Bilder in ihren Datensätzen enthalten“, schrieb CivitAI in einem Post auf seinem Blog.

Als Reaktion auf den Rückschlag kündigte Stability AI Anfang des Monats an, die Lizenzbedingungen für Stable Diffusion 3 anzupassen, um eine liberalere kommerzielle Nutzung zu ermöglichen. „Solange Sie es nicht für illegale Aktivitäten verwenden oder eindeutig gegen unsere Lizenz oder Nutzungsrichtlinien verstoßen, wird Stability AI Sie niemals auffordern, resultierende Bilder, Feinabstimmungen oder andere abgeleitete Produkte zu löschen – selbst wenn Sie Stability AI nie bezahlen“, stellte Stability in einem Blog.

Die Saga verdeutlicht die rechtlichen Fallstricke, die generative KI weiterhin plagen – und damit verbunden, inwieweit „offen“ weiterhin Interpretationssache ist. Nennen Sie mich einen Pessimisten, aber die wachsend Nummer Die Zahl der umstrittenen und restriktiven Lizenzen lässt mich vermuten, dass es in der KI-Industrie nicht so bald zu einem Konsens kommen wird oder dass man sich auch nur langsam der Klarheit nähern wird.



tch-1-tech