Im Vorfeld des KI-Sicherheitsgipfels, der in Seoul, Südkorea, beginnt später diese Woche, sein Co-Gastgeber, das Vereinigte Königreich, weitet seine eigenen Bemühungen in diesem Bereich aus. Das AI Safety Institute – eine britische Einrichtung, die im November 2023 mit dem ehrgeizigen Ziel gegründet wurde, Risiken in KI-Plattformen zu bewerten und anzugehen – gab bekannt, dass es einen zweiten Standort eröffnen wird … in San Francisco.
Die Idee besteht darin, näher an das derzeitige Epizentrum der KI-Entwicklung heranzukommen, wobei die Bay Area unter anderem die Heimat von OpenAI, Anthropic, Google und Meta ist, die grundlegende KI-Technologie entwickeln.
Grundlegende Modelle sind die Bausteine generativer KI-Dienste und anderer Anwendungen, und es ist interessant, dass das Vereinigte Königreich, obwohl es mit den USA eine Absichtserklärung für die Zusammenarbeit beider Länder bei KI-Sicherheitsinitiativen unterzeichnet hatte, sich immer noch dafür entscheidet, in den Aufbau eines solchen Modells zu investieren Präsenz in den USA, um das Problem anzugehen.
„Indem wir Menschen vor Ort in San Francisco haben, erhalten sie Zugang zu den Hauptsitzen vieler dieser KI-Unternehmen“, sagte Michelle Donelan, die britische Außenministerin für Wissenschaft, Innovation und Technologie, in einem Interview mit Tech. „Einige von ihnen haben Stützpunkte hier im Vereinigten Königreich, aber wir denken, dass es sehr nützlich wäre, auch dort einen Stützpunkt zu haben und Zugang zu einem zusätzlichen Pool an Talenten zu erhalten und in der Lage zu sein, noch stärker zusammenzuarbeiten und Hand in Hand zu arbeiten.“ mit den Vereinigten Staaten.“
Das liegt zum Teil daran, dass die Nähe zu diesem Epizentrum für das Vereinigte Königreich nicht nur nützlich ist, um zu verstehen, was gebaut wird, sondern auch, weil es dem Vereinigten Königreich bei diesen Firmen mehr Sichtbarkeit verschafft – wichtig, wenn man bedenkt, dass KI und Technologie insgesamt gesehen werden Großbritannien als große Chance für Wirtschaftswachstum und Investitionen.
Aber angesichts des jüngsten Dramas bei OpenAI rund um sein Superalignment-Team scheint es ein besonders passender Zeitpunkt zu sein, dort eine Präsenz aufzubauen.
Das im November 2023 gegründete AI Safety Institute ist derzeit eine relativ bescheidene Angelegenheit. Die Organisation hat heute nur 32 Mitarbeiter, ein wahrer David des Goliaths der KI, wenn man die Milliardeninvestitionen bedenkt, die von den Unternehmen getragen werden, die KI-Modelle entwickeln, und damit ihre eigenen wirtschaftlichen Beweggründe, ihre Technologien auf den Markt zu bringen der Tür und in die Hände zahlender Benutzer.
Eine der bemerkenswertesten Entwicklungen des AI Safety Institute war die Veröffentlichung von Inspect Anfang dieses Monats, seiner ersten Reihe von Tools zum Testen der Sicherheit grundlegender KI-Modelle.
Donelan bezeichnete diese Veröffentlichung heute als „Phase-1“-Anstrengung: Nicht nur, dass es sich bislang als schwierig erwiesen hat, Modelle zu vergleichen, sondern auch, dass die Einbindung vorerst eher eine freiwillige und inkonsistente Vereinbarung ist. Wie eine Quelle einer britischen Aufsichtsbehörde betonte, sind Unternehmen zu diesem Zeitpunkt nicht gesetzlich verpflichtet, ihre Modelle überprüfen zu lassen; Nicht jedes Unternehmen ist bereit, seine Modelle vor der Veröffentlichung überprüfen zu lassen. Das bedeutet, dass in Fällen, in denen ein Risiko erkennbar ist, das Pferd möglicherweise bereits durchgebrannt ist.
Donelan sagte, das AI Safety Institute entwickle immer noch, wie man am besten mit KI-Unternehmen zusammenarbeiten könne, um sie zu bewerten. „Unser Bewertungsprozess ist eine neue Wissenschaft für sich“, sagte sie. „Mit jeder Evaluierung werden wir den Prozess weiterentwickeln und ihn noch weiter verfeinern.“
Donelan sagte, ein Ziel in Seoul sei es, Inspect den auf dem Gipfel zusammenkommenden Aufsichtsbehörden vorzustellen.
„Jetzt haben wir ein Bewertungssystem. In Phase zwei muss es auch darum gehen, KI in der gesamten Gesellschaft sicher zu machen“, sagte sie.
Längerfristig geht Donelan davon aus, dass das Vereinigte Königreich mehr KI-Gesetzgebung ausarbeiten wird, auch wenn das Vereinigte Königreich – in Anlehnung an die Äußerungen von Premierminister Rishi Sunak zu diesem Thema – dagegen vorgehen wird, bis es das Ausmaß der KI-Risiken besser versteht.
„Wir glauben nicht daran, Gesetze zu erlassen, bevor wir den Überblick und das volle Verständnis haben“, sagte sie und wies darauf hin, dass sich der jüngste internationale KI-Sicherheitsbericht, der vom Institut veröffentlicht wurde, in erster Linie auf den Versuch konzentrierte, ein umfassendes Bild der bisherigen Forschung zu gewinnen, „hervorgehoben.“ dass es große Lücken gibt und dass wir weltweit Anreize für mehr Forschung schaffen und sie fördern müssen.
„Außerdem dauert die Gesetzgebung im Vereinigten Königreich etwa ein Jahr. Und wenn wir stattdessen gerade mit der Gesetzgebung begonnen hätten, als wir angefangen haben [organizing] der AI Safety Summit [held in November last year]würden wir jetzt immer noch Gesetze erlassen, und dafür hätten wir eigentlich nichts vorzuweisen.“
„Seit dem ersten Tag des Instituts war uns klar, wie wichtig es ist, einen internationalen Ansatz zur KI-Sicherheit zu verfolgen, Forschungsergebnisse auszutauschen und mit anderen Ländern zusammenzuarbeiten, um Modelle zu testen und Risiken von Grenz-KI zu antizipieren“, sagte Ian Hogarth, Vorsitzender von das AI Safety Institute. „Heute ist ein entscheidender Moment, der es uns ermöglicht, diese Agenda weiter voranzutreiben, und wir sind stolz darauf, unsere Aktivitäten in einem Bereich voller technischer Talente zu erweitern und das unglaubliche Fachwissen zu ergänzen, das unsere Mitarbeiter in London von Anfang an mitgebracht haben.“