OpenAI, DeepMind und Anthropic ermöglichen Großbritannien frühzeitigen Zugang zu grundlegenden Modellen für die KI-Sicherheitsforschung

Nachdem die britische Regierung letzte Woche angekündigt hatte, im Herbst einen „globalen“ KI-Sicherheitsgipfel auszurichten, hat Premierminister Rishi Sunak die London Tech Week mit einer weiteren Neuigkeit eröffnet: Er teilte den Konferenzteilnehmern mit, dass sich OpenAI, Google DeepMind und Anthropic verpflichtet haben Bereitstellung eines „frühzeitigen oder vorrangigen Zugriffs“ auf ihre KI-Modelle, um die Forschung zu Bewertung und Sicherheit zu unterstützen.

Sunak hat in den letzten Wochen eine beschleunigte Umstellung auf das Thema KI-Sicherheit erlebt, nachdem KI-Giganten in mehreren Interventionen vor den existenziellen und sogar vom Aussterben bedrohten Risiken gewarnt hatten, die die Technologie mit sich bringen könnte, wenn sie nicht ordnungsgemäß reguliert wird.

„Wir werden auf dem neuesten Stand sein [AI] Sicherheitsforschung hier im Vereinigten Königreich“, versprach Sunak heute. „Mit 100 Millionen Pfund für unsere Experten-Taskforce stellen wir mehr Mittel für die KI-Sicherheit bereit als jede andere Regierung.

Diese KI-Sicherheits-Taskforce wird sich auf KI-Grundlagenmodelle konzentrieren sagte auch die Regierung.

„Wir arbeiten mit den Grenzlaboren zusammen – Google DeepMind, OpenAI und Anthropic“, fügte Sunak hinzu. „Und ich freue mich, Ihnen mitteilen zu können, dass sie sich verpflichtet haben, frühzeitigen oder vorrangigen Zugang zu Modellen für Forschungs- und Sicherheitszwecke zu gewähren, um bessere Bewertungen zu erstellen und uns dabei zu helfen, die Chancen und Risiken dieser Systeme besser zu verstehen.“

Der Premierminister wiederholte auch seine frühere Ankündigung des bevorstehenden KI-Sicherheitsgipfels und versuchte, die Bemühungen mit den COP-Klimakonferenzen zu vergleichen, die darauf abzielen, eine globale Zustimmung zur Bekämpfung des Klimawandels zu erreichen.

„So wie wir uns durch die COP vereinen, um den Klimawandel zu bekämpfen, wird Großbritannien später in diesem Jahr den ersten Gipfel zur globalen KI-Sicherheit veranstalten“, sagte er und fügte hinzu: „Ich möchte Großbritannien nicht nur zur intellektuellen Heimat, sondern auch zur geografischen Heimat machen.“ , der globalen KI-Sicherheitsregulierung.“

Die Förderung der KI-Sicherheit bedeutet für Sunaks Regierung einen deutlichen Kurswechsel.

Noch im März befand es sich im vollständigen KI-Cheerleader-Modus und sagte damals in einem Whitepaper, dass es „a Pro-Innovations-Ansatz zur KI-Regulierung“. Der in dem Papier dargelegte Ansatz spielte Sicherheitsbedenken herunter, indem er auf die Notwendigkeit maßgeschneiderter Gesetze für künstliche Intelligenz (oder eines speziellen KI-Überwachers) verzichtete und stattdessen einige „flexible Grundsätze“ festlegte. Die Regierung schlug außerdem vor, dass die Aufsicht über KI-Apps von bestehenden Regulierungsbehörden wie der Kartellbehörde und der Datenschutzbehörde übernommen werden sollte.

Ein paar Monate später spricht Sunank davon, dass das Vereinigte Königreich einen globalen KI-Sicherheitswächter beherbergen soll. Oder zumindest möchte es, dass das Vereinigte Königreich die Diskussion über KI-Sicherheit übernimmt, indem es die Forschung zur Bewertung der Ergebnisse von Lernalgorithmen dominiert.

Rasante Entwicklungen in der generativen KI in Verbindung mit öffentlichen Äußerungen einer Reihe von Technologiegiganten und Vertretern der KI-Branche, die warnten, dass die Technologie außer Kontrolle geraten könnte, scheinen in Downing Street zu einem raschen Umdenken der Strategie geführt zu haben.

Bemerkenswert ist auch, dass KI-Giganten Sunak in den letzten Wochen persönlich die Ohren geöffnet haben, wobei Treffen zwischen dem Premierminister und den CEOs von OpenAI, DeepMind und Anthropic stattfanden, kurz bevor sich die Stimmungsmusik der Regierung zum Thema KI änderte.

Wenn dieses Trio von KI-Giganten sich an seine Zusagen hält, dem Vereinigten Königreich einen erweiterten Zugang zu seinen Modellen zu ermöglichen, besteht für das Land die Chance, bei der Forschung zur Entwicklung effektiver Bewertungs- und Prüfungstechniken eine Führungsrolle zu übernehmen – auch bevor gesetzliche Aufsichtsregelungen in Kraft treten, die algorithmische Transparenz vorschreiben an anderer Stelle (der Entwurf des KI-Gesetzes der Europäischen Union wird beispielsweise voraussichtlich erst 2026 in Kraft treten; obwohl das Gesetz über digitale Dienste der EU bereits in Kraft ist und von den Technologiegiganten bereits eine gewisse algorithmische Transparenz verlangt).

Gleichzeitig besteht die Gefahr, dass das Vereinigte Königreich sich anfällig dafür macht, dass die Industrie seine aufkeimenden KI-Sicherheitsbemühungen ausnutzt. Und wenn es den KI-Giganten gelingt, die Diskussion über KI-Sicherheitsforschung zu dominieren, indem sie selektiven Zugriff auf ihre Systeme gewähren, könnten sie gut in der Lage sein, künftige britische KI-Regeln zu gestalten, die für ihre Unternehmen gelten würden.

Die enge Einbindung von KI-Technologiegiganten in öffentlich finanzierte Forschungen zur Sicherheit ihrer kommerziellen Technologien, bevor ein rechtsverbindlicher KI-Sicherheitsrahmen auf sie angewendet wird, deutet darauf hin, dass sie zumindest Spielraum haben werden, festzulegen, wie KI-Sicherheit betrachtet wird und welche Komponenten, Themen usw Themen werden priorisiert (und daher heruntergespielt). Und indem man Einfluss darauf nimmt, welche Art von Forschung durchgeführt wird, da sie davon abhängen kann, wie viel Zugang sie bieten.

In der Zwischenzeit warnen KI-Ethiker seit langem davor, dass schlagzeilenträchtige Befürchtungen über die Risiken, die „superintelligente“ KIs für den Menschen darstellen könnten, die Diskussion über Schäden in der realen Welt übertönen, die bestehende KI-Technologien bereits verursachen, darunter Voreingenommenheit und Diskriminierung, Missbrauch der Privatsphäre, Urheberrechtsverletzungen und Umweltressourcen Ausbeutung.

Auch wenn die britische Regierung die Zustimmung der KI-Giganten als PR-Coup betrachten mag, muss sie die Beteiligung unabhängiger Forscher, zivilgesellschaftlicher Gruppen und anderer Gruppen sicherstellen, wenn der KI-Gipfel und umfassendere KI-Sicherheitsbemühungen belastbare und glaubwürdige Ergebnisse liefern sollen Das Unternehmen ist unverhältnismäßig stark von Schäden durch Automatisierung bedroht und verkündet nicht nur seinen Plan für eine Partnerschaft zwischen „brillanten KI-Unternehmen“ und lokalen Akademikern – gegeben Die akademische Forschung ist bereits heute häufig auf die Finanzierung durch Technologiegiganten angewiesen.



tch-1-tech