Der neue Vorstand von OpenAI kann Sicherheitsentscheidungen rückgängig machen

Wenige Tage nach der Wiedereinstellung von Sam Altman als CEO von OpenAI wurde die Konstituierung eines neuen Vorstands bekannt gegeben. Ungefähr drei Wochen später, am Montag (18. Dezember), legte das Unternehmen einen Rahmen für die Sicherheit seiner fortschrittlichsten Modelle vor und erlaubte dem Vorstand unter anderem, Sicherheitsentscheidungen rückgängig zu machen.Das bedeutet, dass jedes Modell, wie etwa das vielbeachtete Projekt Q*, das als potenziell schädlich für die Menschheit angesehen werden könnte, durch das Vetorecht des Vorstands auf Eis gelegt werden kann.

„Wir müssen die KI-Sicherheit von Grund auf angehen, die KI selbst nutzen, um KI-Sicherheitsherausforderungen zu lösen und allgemeine Lösungen für Problemkategorien zu entwickeln“, sagte das Unternehmen.Das von Microsoft unterstützte Unternehmen sagte, dass es seine neueste Technologie nur dann einsetzen werde, wenn sie in bestimmten Bereichen wie Cybersicherheit und nuklearen Bedrohungen als sicher erachtet werde. Das Safety Systems-Team von OpenAI
Das Unternehmen richtet außerdem eine Beratergruppe namens Safety Systems Team ein, die Sicherheitsberichte prüft und diese an die Führungskräfte und den Vorstand des Unternehmens sendet. Während Führungskräfte Entscheidungen treffen, kann der Vorstand diese Entscheidungen rückgängig machen.„Das Team von Safety Systems ist bestrebt, die Sicherheit, Robustheit und Zuverlässigkeit von KI-Modellen und deren Einsatz in der realen Welt zu gewährleisten“, fügte OpenAI hinzu.Safety Systems besteht aus vier Teilteams
OpenAI sagte, dass dieses Hauptteam vier Unterteams haben wird, zu denen Experten in den Bereichen Technik, Forschung, Politik, Mensch-KI-Zusammenarbeit und Produktmanagement gehören. Sicherheitstechnik: Das Team implementiert Abhilfemaßnahmen auf Systemebene in Produkte, baut eine sichere, datenschutzbewusste, zentralisierte Sicherheitsdienst-Infrastruktur auf und erstellt ML-zentrierte Tools für Untersuchungen und Durchsetzung in großem Maßstab.Modellsicherheitsforschung: Dieses Team wird die Fähigkeiten von OpenAI zur präzisen Implementierung robuster, sicherer Verhaltensweisen in unseren Modellen weiterentwickeln.Forschung zum Sicherheitsdenken: Dieses Team wird sowohl bekannte als auch unbekannte Risiken erkennen und verstehen, um die Entwicklung von Standardverhalten und Abhilfemaßnahmen für sichere Modelle zu steuern. Es wird auf das Ziel hinarbeiten, indem es bessere Sicherheits- und ethische Argumentationskompetenzen in das Grundlagenmodell einbaut.Mensch-KI-Interaktion: Schließlich wird sich dieses Team um die Richtlinien kümmern, die die „Schnittstelle für die Ausrichtung des Modellverhaltens an den gewünschten menschlichen Werten“ darstellen, und wir entwerfen Richtlinien gemeinsam mit Modellen und für Modelle, sodass Richtlinien direkt in unsere Sicherheitssysteme eingebunden werden können.(Mit Agentureingaben)FacebookTwitterLinkedin



Ende des Artikels

gn-tech