OpenAI sagt, es wolle Ideen aus der Öffentlichkeit umsetzen, um sicherzustellen, dass seine zukünftigen KI-Modelle „an den Werten der Menschheit ausgerichtet“ seien.
Zu diesem Zweck bildet das KI-Startup ein neues Collective Alignment-Team aus Forschern und Ingenieuren, um ein zu schaffen System zum Sammeln und „Kodieren“ öffentlicher Eingaben zum Verhalten seiner Modelle in OpenAI-Produkten und -Diensten, das Unternehmen angekündigt Heute.
„Wir werden weiterhin mit externen Beratern und Förderteams zusammenarbeiten, einschließlich der Durchführung von Pilotprojekten, um … Prototypen in die Steuerung unserer Modelle zu integrieren“, schreibt OpenAI ina Blogbeitrag. „War Rekrutierung von … Forschungsingenieuren mit unterschiedlichem technischem Hintergrund, um diese Arbeit mit uns aufzubauen.“
Das Collective Alignment-Team ist ein Ergebnis der Öffentlichkeit von OpenAI Programm, im vergangenen Mai ins Leben gerufen, um Zuschüsse zur Finanzierung von Experimenten zur Einrichtung eines „demokratischen Prozesses“ zu vergeben, um zu entscheiden, welche Regeln KI-Systeme befolgen sollten. Das Ziel des Programms, sagte OpenAI bei seiner Einführung, sei es, Einzelpersonen, Teams und Organisationen für die Entwicklung von Proof-of-Concepts zu finanzieren, die Fragen zu Leitplanken und Governance für KI beantworten könnten.
In seinem heutigen Blogbeitrag fasste OpenAI die Arbeit der Zuschussempfänger zusammen, die von Video-Chat-Schnittstellen bis hin zu Plattformen für Crowdsourcing-Prüfungen von KI-Modellen und „Ansätzen zur Zuordnung von Überzeugungen zu Dimensionen, die zur Feinabstimmung des Modellverhaltens verwendet werden können“ reichte. ” Der gesamte Code, der in der Arbeit der Stipendiaten verwendet wurde, wurde selbst erstellt öffentlich heute Morgen, zusammen mit kurzen Zusammenfassungen jedes Vorschlags und wichtigen Erkenntnissen.
OpenAI hat versucht, das Programm als losgelöst von seinen kommerziellen Interessen darzustellen. Angesichts der Kritik von OpenAI-CEO Sam Altman an der Regulierung in der EU und anderswo ist das jedoch eine schwierige Pille. Altman hat zusammen mit OpenAI-Präsident Greg Brockman und Chefwissenschaftler Ilya Sutskever wiederholt argumentiert, dass das Innovationstempo in der KI so schnell ist, dass wir nicht erwarten können, dass die bestehenden Behörden die Technologie angemessen eindämmen – daher ist es notwendig, die Arbeit per Crowdsourcing zu betreiben.
Einige OpenAI-Konkurrenten, darunter Meta, haben OpenAI (unter anderem) vorgeworfen, durch Lobbyarbeit gegen offene KI-Forschung und -Entwicklung versucht zu haben, die „regulatorische Eroberung der KI-Branche“ zu erreichen. Es überrascht nicht, dass OpenAI dies bestreitet – und würde wahrscheinlich das Förderprogramm (und das Collective Alignment-Team) als Beispiel für seine „Offenheit“ verweisen.
OpenAI steht ohnehin zunehmend unter der Beobachtung politischer Entscheidungsträger und steht in Großbritannien vor einer Untersuchung wegen seiner Beziehung zum engen Partner und Investor Microsoft. Das Startup versuchte kürzlich, sein regulatorisches Risiko in der EU im Bereich Datenschutz zu verringern, indem es eine in Dublin ansässige Tochtergesellschaft nutzte, um die Fähigkeit bestimmter Datenschutzwächter in der Union zu verringern, einseitig auf Bedenken zu reagieren.
Gestern – zweifellos auch, um die Regulierungsbehörden zu beruhigen – OpenAI angekündigt dass es mit Organisationen zusammenarbeitet, um zu versuchen, die Möglichkeiten einzuschränken, in denen seine Technologie dazu genutzt werden könnte, Wahlen mit böswilligen Mitteln zu beeinflussen oder zu beeinflussen. Zu den Bemühungen des Startups gehört es, mit seinen Tools deutlicher zu erkennen, ob Bilder KI-generiert werden, und Ansätze zu entwickeln, um generierte Inhalte auch nach der Änderung von Bildern zu identifizieren.