DeepMinds 145-seitiges Papier zur AGI-Sicherheit kann Skeptiker nicht überzeugen

Google DeepMind hat am Mittwoch eine veröffentlicht erschöpfendes Papier Bei seinem Sicherheitsansatz für AGI, grob definiert als KI, die jeder Aufgabe eine menschliche Dose erfüllen kann.

Agi ist ein umstrittenes Thema im KI -Feld mit Neinsager Dies schlägt vor, dass es kaum mehr als ein Pfeifentraum ist. Andere, darunter wichtige KI -Labors wie anthropisch, warnen, dass es sich um die Ecke befindet, und könnten zu katastrophalen Schäden führen, wenn keine Schritte unternommen werden, um geeignete Schutzmaßnahmen umzusetzen.

DeepMinds 145-seitiges Dokument, das von DeepMind-Mitbegründer Shane Legg mitautorisiert wurde, sagt voraus, dass AGI bis 2030 eintreffen könnte und dass es dazu führen kann, dass die Autoren „schweren Schaden“ bezeichnen. Das Papier definiert dies nicht konkret, sondern gibt dem alarmativen Beispiel für „existenzielle Risiken“, die „die Menschheit dauerhaft zerstören“.

“[We anticipate] Die Entwicklung einer außergewöhnlichen AGI vor dem Ende des aktuellen Jahrzehnts “, schrieben die Autoren.

Aus der Fledermaus kontrastiert das Papier die Behandlung von AGI -Risikominderung von DeepMind mit Anthropics und Openai. Anthropic legt weniger Wert auf „robuste Schulung, Überwachung und Sicherheit“, während OpenAI übermäßig optimistisch ist, eine Form der KI -Sicherheitsforschung zu „automatisieren“, die als Ausrichtungsforschung bekannt ist.

Das Papier wirft auch Zweifel an der Lebensfähigkeit von Superintelligent AI – KI, die Arbeitsplätze besser ausführen kann als jeder andere Menschen. (OpenAI behauptete kürzlich, dass es sein Ziel von Agi in die Superintelligence verwandelt.

Das Papier findet es jedoch plausibel, dass aktuelle Paradigmen eine „rekursive AI -Verbesserung“ ermöglichen: eine positive Rückkopplungsschleife, in der KI ihre eigenen KI -Forschungen durchführt, um anspruchsvollere KI -Systeme zu schaffen. Und das könnte unglaublich gefährlich sein, behaupten die Autoren.

Auf hohem Niveau schlägt das Papier die Entwicklung von Techniken vor und setzt sich für den Zugang der schlechten Akteure zu hypothetischer AGI ein, verbessert das Verständnis der Aktionen von KI -Systemen und „verhärtet“ die Umgebungen, in denen KI wirken kann. Es erkennt an, dass viele der Techniken entstehen und „offene Forschungsprobleme“ haben, warnt jedoch davor, die Sicherheitsherausforderungen möglicherweise am Horizont zu ignorieren.

„Die transformative Natur von AGI hat das Potenzial für unglaubliche Vorteile sowie schwere Schäden“, schreiben die Autoren. „Um AGI verantwortungsbewusst aufzubauen, ist es für Grenz -KI -Entwickler von entscheidender Bedeutung, proaktiv zu planen, schwere Schäden zu mildern.“

Einige Experten sind sich jedoch nicht einig mit den Räumlichkeiten der Zeitung.

Heidy Khlaaf, Chef-AI-Wissenschaftlerin am gemeinnützigen AI Now Institute, sagte Tech, dass sie der Meinung ist, dass das Konzept der AGI zu schlecht definiert ist, um „wissenschaftlich streng bewertet“ zu werden. Ein anderer KI -Forscher, Matthew Guzdial, Assistenzprofessor an der Universität von Alberta, sagte, er glaube nicht, dass eine rekursive KI -Verbesserung derzeit realistisch sei.

“[Recursive improvement] ist die Grundlage für die Intelligenz -Singularitätsargumente “, sagte Guzdial gegenüber Tech,“ aber wir haben noch nie Beweise dafür gesehen. „

Sandra Wachter, ein Forscher, der Tech und Regulierung bei Oxford studiert, argumentiert, dass ein realistischeres Problem darin besteht, dass KI sich mit „ungenauen Ergebnissen“ verstärkt.

„Mit der Verbreitung generativer KI -Ausgänge im Internet und dem allmählichen Austausch authentischer Daten lernen Modelle jetzt aus ihren eigenen Ausgaben, die mit Missvertretern oder Halluzinationen durchsetzt sind“, sagte sie gegenüber Tech. „Zu diesem Zeitpunkt werden Chatbots überwiegend für die Suche und die Wahrheitsfindung verwendet. Das bedeutet, dass wir ständig das Risiko haben, dass wir uns mit Mülleimer gefüttert und ihnen glauben, weil sie auf sehr überzeugende Weise präsentiert werden.“

Soweit es auch sein mag, es ist unwahrscheinlich, dass DeepMinds Papier die Debatten darüber nachlässt, wie realistisch agi ist – und die Bereiche der KI -Sicherheit dringend aufmerksam.

tch-1-tech