Ein anstrengender Wahlzyklus ist zu Ende gegangen. Donald Trump wird der 47. Präsident der USA sein, und da die Republikaner die Kontrolle über den Senat – und möglicherweise auch das Repräsentantenhaus – haben, sind seine Verbündeten bereit, grundlegende Veränderungen auf den höchsten Regierungsebenen herbeizuführen.
Die Auswirkungen werden in der KI-Branche deutlich zu spüren sein, die sich größtenteils gegen die Politik des Bundes auflehnt. Trump hat wiederholt erklärt, er plane, Bidens KI-Politikrahmen am „ersten Tag“ zu demontieren, und hat sich mit den Königsmachern verbündet, die alle bis auf die geringsten Regelungen scharf kritisiert haben.
Bidens Ansatz
Bidens KI-Politik trat durch eine im Oktober 2023 verabschiedete Durchführungsverordnung, die AI Executive Order, in Kraft. Die Untätigkeit des Kongresses in Bezug auf die Regulierung führte zur Entstehung der Durchführungsverordnung, deren Vorschriften freiwillig und nicht zwingend sind.
Der AI EO befasst sich mit allen Themen, von der Weiterentwicklung der KI im Gesundheitswesen bis hin zur Entwicklung von Leitlinien zur Minderung des Risikos von IP-Diebstahl. Aber zwei seiner folgenreicheren Bestimmungen – die den Zorn einiger Republikaner hervorgerufen haben – beziehen sich auf die Sicherheitsrisiken der KI und die Auswirkungen auf die Sicherheit in der realen Welt.
Eine Bestimmung weist Unternehmen, die leistungsstarke KI-Modelle entwickeln, an, der Regierung zu berichten, wie sie diese Modelle trainieren und sichern, und die Ergebnisse von Tests zur Verfügung zu stellen, mit denen Modellschwachstellen untersucht werden sollen. Die andere Bestimmung weist das National Institute of Standards and Technology (NIST) des Handelsministeriums an, Leitlinien zu verfassen, die Unternehmen dabei helfen, Fehler in Modellen, einschließlich Verzerrungen, zu erkennen und zu korrigieren.
Der AI EO hat viel erreicht. Im letzten Jahr gründete das Handelsministerium das US AI Safety Institute (AISI), eine Einrichtung zur Untersuchung von Risiken in KI-Systemen, einschließlich Systemen mit Verteidigungsanwendungen. Außerdem veröffentlichte das Unternehmen neue Software, um die Vertrauenswürdigkeit der KI zu verbessern, und testete im Rahmen von Vereinbarungen mit OpenAI und Anthropic wichtige neue KI-Modelle.
Mit Trump verbündete Kritiker argumentieren, dass die Berichtspflichten der EO belastend seien und Unternehmen effektiv dazu zwingen, ihre Geschäftsgeheimnisse preiszugeben. Während einer Anhörung im Repräsentantenhaus im März sagte die Abgeordnete Nancy Mace (R-SC), dass sie „potenzielle Innovatoren abschrecken und weitere Durchbrüche im ChatGPT-Stil verhindern könnten“.
Bei einer Anhörung im Senat im Juli äußerte Trumps Vizepräsident JD Vance Bedenken, dass „präventive Überregulierungsversuche“ „die etablierten Technologieunternehmen, die wir bereits haben, festigen“ würden. Vance war es auch unterstützend des Kartellrechts, einschließlich der Bemühungen der FTC-Vorsitzenden Lina Khan, die eine Vorreiterin ist Untersuchungen der Übernahmen von KI-Startups durch große Technologieunternehmen.
Mehrere Republikaner haben die Arbeit des NIST zur KI mit der Zensur konservativer Reden gleichgesetzt. Sie werfen der Biden-Administration vor, sie versuche, die KI-Entwicklung mit liberalen Vorstellungen von Desinformation und Voreingenommenheit zu steuern; Senator Ted Cruz (R-TX) kritisierte kürzlich die „Sicherheitsstandards für aufgeweckte KI“ des NIST als einen „Plan zur Kontrolle der Sprache“, der auf „amorphen“ sozialen Schäden basiert.
„Wenn ich wiedergewählt werde“, sagte Trump letzten Dezember auf einer Kundgebung in Cedar Rapids, Iowa, „werde ich Bidens Anordnung zur künstlichen Intelligenz aufheben und den Einsatz von KI zur Zensur der Rede amerikanischer Bürger vom ersten Tag an verbieten.“ ”
Ersetzen des AI EO
Was könnte also Bidens KI-EO ersetzen?
Den KI-Durchführungsverordnungen, die Trump während seiner letzten Amtszeit als Präsident unterzeichnete und die nationale KI-Forschungsinstitute gründeten und Bundesbehörden anwiesen, der KI-Forschung und -Entwicklung Priorität einzuräumen, lässt sich wenig entnehmen. Seine EOs forderten, dass Behörden bei der Anwendung von KI „bürgerliche Freiheiten, Privatsphäre und amerikanische Werte schützen“, Arbeitnehmer dabei unterstützen, KI-relevante Fähigkeiten zu erwerben, und den Einsatz „vertrauenswürdiger“ Technologien fördern.
Während seines Wahlkampfs versprach Trump Richtlinien, die „die KI-Entwicklung unterstützen würden, die auf freier Meinungsäußerung und menschlichem Gedeihen basiert“, lehnte es jedoch ab, ins Detail zu gehen.
Einige Republikaner haben erklärt, dass sie wollen, dass sich NIST auf die physischen Sicherheitsrisiken von KI konzentriert, einschließlich ihrer Fähigkeit, Gegnern beim Bau von Biowaffen zu helfen (auf die Bidens EO auch eingeht). Aber sie haben sich auch davor gescheut, neue Beschränkungen für KI zu befürworten, die Teile der NIST-Richtlinien gefährden könnten.
Tatsächlich ist das Schicksal der AISI, die beim NIST angesiedelt ist, unklar. Obwohl das AISI über ein Budget, einen Direktor und Partnerschaften mit KI-Forschungsinstituten weltweit verfügt, könnte es durch eine einfache Aufhebung von Bidens EO aufgelöst werden.
In einem offenen Brief im Oktober forderte eine Koalition aus Unternehmen, gemeinnützigen Organisationen und Universitäten den Kongress auf, noch vor Jahresende ein Gesetz zur Kodifizierung des AISI zu erlassen.
Trump hat anerkannt, dass KI „ist“sehr gefährlich” und das wird es erfordern gewaltige Mengen an Kraft zu entwickeln und zu betreiben, was auf die Bereitschaft schließen lässt, sich mit den wachsenden Risiken der KI auseinanderzusetzen.
Sarah Kreps, eine Politikwissenschaftlerin mit Schwerpunkt auf US-Verteidigungspolitik, erwartet daher nicht, dass das Weiße Haus in den nächsten vier Jahren eine umfassende KI-Regulierung erlassen wird. „Ich weiß nicht, dass Trumps Ansichten zur KI-Regulierung ein Ausmaß an Antipathie erreichen werden, das ihn dazu veranlasst, Bidens KI-EO aufzuheben“, sagte sie gegenüber Tech.
Handel und staatliche Regulierung
Dean Ball, wissenschaftlicher Mitarbeiter an der George Mason University, stimmt zu, dass Trumps Sieg wahrscheinlich ein mildes Regulierungssystem verheißt – eines, das auf der Anwendung bestehender Gesetze und nicht auf der Schaffung neuer Gesetze beruht. Allerdings prognostiziert Ball, dass dies die Landesregierungen, insbesondere in demokratischen Hochburgen wie Kalifornien, ermutigen könnte, zu versuchen, die Lücke zu füllen.
Die staatlich geführten Bemühungen sind in vollem Gange. Im März verabschiedete Tennessee ein Gesetz beschützen Synchronsprecher vom KI-Klonen. Diesen Sommer, Colorado angenommen ein abgestufter, risikobasierter Ansatz für KI-Einsätze. Und im September unterzeichnete der Gouverneur von Kalifornien, Gavin Newsom Dutzende von KI-bezogenen Sicherheitsgesetzen, von denen einige Unternehmen dazu verpflichten, Details zu ihrer KI-Schulung zu veröffentlichen.
Landespolitische Entscheidungsträger haben eingeführt Allein in diesem Jahr wurden fast 700 KI-Gesetze erlassen.
„Wie die Bundesregierung auf diese Herausforderungen reagieren wird, ist unklar“, sagte Ball.
Hamid Ekbia, Professor für öffentliche Angelegenheiten an der Syracuse University, glaubt, dass Trumps protektionistische Politik Auswirkungen auf die KI-Regulierung haben könnte. Er geht davon aus, dass die Trump-Administration beispielsweise China strengere Exportkontrollen auferlegen wird – einschließlich Kontrollen der für die Entwicklung von KI erforderlichen Technologien.
Die Biden-Regierung hat bereits eine Reihe von Verboten für den Export von KI-Chips und -Modellen erlassen. Bei einigen chinesischen Firmen ist dies jedoch der Fall angeblich Nutzung von Schlupflöchern, um über Cloud-Dienste auf die Tools zuzugreifen.
„Die globale Regulierung der KI wird darunter leiden [of new controls]„, trotz der Umstände, die eine stärkere globale Zusammenarbeit erfordern“, sagte Ekbia. „Die politischen und geopolitischen Auswirkungen können enorm sein und einen autoritären und unterdrückerischen Einsatz von KI auf der ganzen Welt ermöglichen.“
Sollte Trump Zölle auf die für den Aufbau von KI erforderlichen Technologien einführen, könnte dies auch zu einem Druck auf das zur Finanzierung von KI-Forschung und -Entwicklung erforderliche Kapital führen, sagt Matt Mittelsteadt, ein weiterer Forschungsstipendiat an der George Mason University. Während seines Wahlkampfs schlug Trump einen Zoll von 10 % auf alle US-Importe und 60 % auf in China hergestellte Produkte vor.
„Vielleicht wird die Handelspolitik den größten Einfluss haben“, sagte Mittelsteadt. „Erwarten Sie, dass mögliche Zölle massive wirtschaftliche Auswirkungen auf den KI-Sektor haben werden.“
Natürlich ist es früh. Und während Trump es im Wahlkampf größtenteils vermied, KI zu thematisieren, könnte ein Großteil seiner Plattform – wie sein Plan, H-1B-Visa einzuschränken und Öl und Gas zu fördern – nachgelagerte Auswirkungen auf die KI-Branche haben.
Sandra Wachter, Professorin für Datenethik am Oxford Internet Institute, forderte die Regulierungsbehörden, unabhängig von ihrer politischen Zugehörigkeit, auf, die Gefahren der KI nicht aus den Augen zu verlieren, sondern ihre Chancen.
„Diese Risiken bestehen unabhängig davon, wo man im politischen Spektrum steht“, sagte sie. „Diese Schädlinge glauben nicht an die Geographie und scheren sich nicht um Parteilinien. Ich kann nur hoffen, dass die KI-Governance nicht auf eine parteiische Angelegenheit reduziert wird – es ist ein Thema, das uns alle überall betrifft. Wir müssen alle zusammenarbeiten, um gute globale Lösungen zu finden.“