Meta sagt, es könnte die Entwicklung von KI -Systemen stoppen

Mark Zuckerberg, CEO von Meta, hat sich verpflichtet, künstliche allgemeine Intelligenz (AGI) zu erstellen, die grob als KI definiert ist, die jeder Aufgabe, die ein Mensch kann, offen erledigt werden kann – eines Tages offen verfügbar ist. Aber in a Neues RichtliniendokumentMeta schlägt vor, dass es bestimmte Szenarien gibt, in denen es möglicherweise kein hochkarätiges KI -System veröffentlicht, das es intern entwickelt hat.

Das Dokument, das Meta als Frontier -KI -Framework bezeichnet, identifiziert zwei Arten von KI -Systemen, die das Unternehmen zu riskant hält, um die Systeme für „hohe Risiken“ und „kritisches Risiko“ -Systeme zu veröffentlichen.

Da Meta sie definiert, können sowohl „Hochrisiko-“ und „kritische Risiko“ -Systeme in der Lage sein, Cybersicherheit, chemische und biologische Angriffe zu unterstützen. Der Unterschied besteht darin [that] kann nicht gemindert werden in [a] Vorgeschlagener Bereitstellungskontext. “ Im Gegensatz dazu können ein Angriff leichter durchzuführen, aber nicht so zuverlässig oder zuverlässig wie ein kritisches Risikosystem.

Über welche Art von Angriffen sprechen wir hier? Meta gibt einige Beispiele an, wie den „automatisierten End-to-End-Kompromiss einer bestpraktizierenden Umgebung im Unternehmensmaßstab“ und die „Verbreitung von biologischen Waffen mit hoher Wirkung“. Die Liste der möglichen Katastrophen in Metas Dokument ist alles andere als ausführlich, räumt das Unternehmen an, enthält jedoch diejenigen, von denen Meta als „das dringendste“ und plausibel ist, um als direktes Ergebnis der Freisetzung eines leistungsstarken KI -Systems zu entstehen.

Etwas überraschend ist, dass Meta laut Dokument das Systemrisiko klassifiziert, das nicht auf einem empirischen Test basiert, sondern durch die Beiträge interner und externer Forscher, die von „Entscheidungsträgern auf hochrangiger Ebene“ überprüft werden, informiert werden. Warum? META sagt, dass die Wissenschaft der Bewertung nicht der Meinung ist, dass „ausreichend robust ist, um endgültige quantitative Metriken zu liefern“, um die Risiko eines Systems zu entscheiden.

Wenn Meta feststellt, dass ein System ein hohes Risiko ist, wird das Unternehmen angibt, dass es den Zugriff auf das System intern begrenzt und es erst freigibt, wenn es Minderungen implementiert, um „das Risiko auf moderate Werte zu verringern“. Wenn andererseits ein System als kritisches Risiko eingestuft wird, wird Meta angibt, dass nicht näher bezeichnete Sicherheitsmaßnahmen implementiert werden, um zu verhindern, dass das System ein Exfiltrating wird, und die Entwicklung zu stoppen, bis das System weniger gefährlich werden kann.

Der Frontier AI -Framework von Meta, das das Unternehmen sagt, dass sich die sich ändernde KI -Landschaft entwickeln wird, scheint eine Reaktion auf die Kritik des „offenen“ Ansatzes des Unternehmens zur Systementwicklung zu sein. Meta hat eine Strategie angenommen, um seine KI -Technologie offen verfügbar zu machen – wenn auch nicht Open Source nach der allgemein verstandenen Definition – im Gegensatz zu Unternehmen wie OpenAI, die ihre Systeme hinter einer API entscheiden.

Für Meta hat sich der Ansatz der offenen Freisetzung als Segen und Fluch erwiesen. Die KI -Models der Firma namens Llama hat Hunderte von Millionen von Downloads gesammelt. Lama wurde jedoch auch Berichten zufolge von mindestens einem US -Gegner verwendet, um einen Verteidigungs -Chatbot zu entwickeln.

Bei der Veröffentlichung seines Frontier -KI -Frameworks kann Meta auch seine offene KI -Strategie mit der chinesischen KI -Firma Deepseek vergleichen. Deepseek stellt seine Systeme auch offen zur Verfügung. Aber die KI des Unternehmens hat nur wenige Schutzmaßnahmen und kann leicht gesteuert werden Erzeugen Sie giftige und schädliche Ausgaben.

“[W]Ich bin der Ansicht, dass sowohl Vorteile als auch Risiken bei der Entscheidung über die Entwicklung und Bereitstellung fortgeschrittener KI berücksichtigt werden. “ gleichzeitig ein angemessenes Risiko aufrechterhalten. “

Tech hat einen AI-ausgerichteten Newsletter! Melden Sie sich hier an, um es jeden Mittwoch in Ihren Posteingang zu bringen.

tch-1-tech