Großbritannien lässt ‚Sicherheit‘ aus seiner KI -Körperschaft, die jetzt AI Security Institute genannt wird

Die britische Regierung möchte einen harten Drehpunkt dazu bringen, ihre Wirtschaft und Industrie mit KI zu stärken, und als Teil davon ist es eine Institution, die sie vor etwas mehr als einem Jahr für einen ganz anderen Zweck gegründet hat. Heute gab das Ministerium für Wissenschaft, Industrie und Technologie bekannt, dass es das KI -Sicherheitsinstitut in das „AI -Sicherheitsinstitut“ umbenennen würde. Damit wird es von hauptsächlich Erkundungen von Bereichen wie existenziellem Risiko und Vorurteilen in Großsprachenmodellen über eine Fokus auf Cybersicherheit übergehen, insbesondere „Stärkung des Schutzes gegen die Risiken, die KI auf nationaler Sicherheit und Kriminalität aufweisen“.

Daneben kündigte die Regierung auch eine neue Partnerschaft mit Anthropic an. Es wurden keine festen Dienstleistungen angekündigt, aber die Absichtserklärung gibt an, dass die beiden mithilfe von Anthropics AI -Assistenten Claude in öffentlichen Diensten „untersuchen“ werden. und Anthropic wird darauf abzielen, zur Arbeit in der wissenschaftlichen Forschung und zur Wirtschaftsmodellierung beizutragen. Und beim AI Security Institute bietet es Tools zur Bewertung von KI -Funktionen im Zusammenhang mit der Identifizierung von Sicherheitsrisiken.

„AI hat das Potenzial, die Dienste der Regierungen ihren Bürgern zu verändern“, sagte Dario Amodei, Mitbegründer und CEO von Anthropic, in einer Erklärung. „Wir freuen uns darauf, zu untersuchen, wie Anthropics KI -Assistent Claude den britischen Regierungsbehörden helfen könnte, öffentliche Dienste zu verbessern, um neue Wege zu ermitteln, um wichtige Informationen und Dienstleistungen effizienter und für britische Bewohner zugänglicher zu gestalten.“

Anthropic ist das einzige Unternehmen, das heute angekündigt wird – zusammen mit einer Woche der KI -Aktivitäten in München und Paris -, aber es ist nicht die einzige, die mit der Regierung zusammenarbeitet. Eine Reihe neuer Tools, die im Januar enthüllt wurden, wurden von OpenAI angetrieben. (Zu dieser Zeit sagte Peter Kyle, der Außenminister für Technologie, dass die Regierung vorhatte, mit verschiedenen grundlegenden KI -Unternehmen zusammenzuarbeiten, und das ist das, was der anthropische Deal beweist.)

Die Wechsel des KI-Sicherheitsinstituts durch die Regierung-vor etwas mehr als einem Jahr mit viel Fanfare-auf die KI-Sicherheit sollte nicht zu sehr überraschend sein.

Als die neu installierte Labour-Regierung im Januar ihren KI-fahrschadenen Plan für Veränderungen ankündigte, war es bemerkenswert, dass die Wörter „Sicherheit“, „Schaden“, „existenziell“ und „Bedrohung“ im Dokument überhaupt nicht erschienen.

Das war kein Versehen. Der Plan der Regierung besteht darin, Investitionen in eine modernisiertere Wirtschaft, die Verwendung von Technologie und speziell KI dazu zu starten. Es möchte enger mit Big Tech zusammenarbeiten und auch seine eigenen einheimischen Big Techs aufbauen. Die wichtigsten Botschaften, die für die Förderung der Förderung waren, waren Entwicklung, KI und mehr Entwicklung. Beamte haben einen eigenen KI -Assistenten mit dem Namen „Humphrey“ und werden ermutigt, Daten auszutauschen und KI in anderen Bereichen zu verwenden, um ihre Arbeit zu beschleunigen. Verbraucher erhalten digitale Geldbörsen für ihre Regierungsdokumente und Chatbots.

Wurden KI -Sicherheitsprobleme gelöst? Nicht genau, aber die Nachricht scheint zu sein, dass sie auf Kosten des Fortschritts nicht berücksichtigt werden können.

Die Regierung behauptete, dass das Lied trotz der Namensänderung gleich bleiben wird.

„Die Änderungen, die ich heute ankündige, repräsentieren den logischen nächsten Schritt, wie wir die verantwortungsvolle KI -Entwicklung nähern. Sie helfen uns dabei, die KI zu entfesseln und die Wirtschaft im Rahmen unseres Veränderungsplans auszubauen“, sagte Kyle in einer Erklärung. „Die Arbeit des KI -Sicherheitsinstituts wird sich nicht ändern, aber dieser erneute Fokus wird sicherstellen, dass unsere Bürger – und die unserer Verbündeten – vor denen geschützt sind, die AI gegen unsere Institutionen, demokratischen Werte und Lebensweise verwenden möchten. ”

„Der Fokus des Instituts von Anfang an lag auf der Sicherheit und wir haben ein Team von Wissenschaftlern aufgebaut, das sich auf die Bewertung schwerwiegender Risiken für die Öffentlichkeit konzentriert“, fügte Ian Hogarth hinzu, der der Vorsitzende des Instituts bleibt. „Unser neues kriminelles Missbrauchsteam und die Vertiefung der Partnerschaft mit der Nationalen Sicherheitsgemeinschaft markieren die nächste Stufe der Bekämpfung dieser Risiken.“

Weiter entfernt scheinen Prioritäten die Bedeutung der „KI -Sicherheit“ definitiv verändert zu haben. Das größte Risiko, das das AI -Sicherheitsinstitut in den USA ist, besteht derzeit darin, dass es abgebaut wird. Der US -Vizepräsident JD Vance hat Anfang dieser Woche während seiner Rede in Paris telegraphiert.

Tech hat einen AI-ausgerichteten Newsletter! Melden Sie sich hier an, um es jeden Mittwoch in Ihren Posteingang zu bringen.

tch-1-tech