Am selben Tag, an dem Großbritannien einige der weltweit führenden Unternehmens- und Politikführer im selben Raum im Bletchley Park zum AI Safety Summit versammelte, schrieben mehr als 70 Unterzeichner einen Brief, in dem sie einen offeneren Ansatz für die KI-Entwicklung forderten.
„Wir befinden uns an einem kritischen Punkt in der KI-Governance“, heißt es in dem Brief. veröffentlicht von Mozilla, Anmerkungen. „Um aktuelle und zukünftige Schäden durch KI-Systeme abzumildern, müssen wir Offenheit, Transparenz und breiten Zugang fördern. Dies muss eine globale Priorität sein.“
Ähnlich wie in den letzten Jahrzehnten im breiteren Softwarebereich war ein wesentlicher Hintergrund für die aufkeimende KI-Revolution die Frage „offen“ vs. „proprietär“ – und die jeweiligen Vor- und Nachteile. Am Wochenende hat Yann Lecun, der leitende KI-Wissenschaftler von Facebook-Mutter Meta, dies bekannt gegeben ging zu X um die Bemühungen einiger Unternehmen, darunter OpenAI und Googles DeepMind, anzuprangern, die durch Lobbyarbeit gegen offene KI-Forschung und -Entwicklung die „regulatorische Eroberung der KI-Branche“ sichern wollen.
„Wenn Ihre Angst schürenden Kampagnen Erfolg haben, werden sie *unweigerlich* zu dem führen, was Sie und ich als Katastrophe bezeichnen würden: Eine kleine Anzahl von Unternehmen wird die KI kontrollieren“, schrieb Lecun.
Und dieses Thema zieht sich weiterhin durch die zunehmenden Governance-Bemühungen, die sich beispielsweise aus der Executive Order von Präsident Biden und dem diese Woche im Vereinigten Königreich ausgerichteten AI Safety Summit ergeben. Einerseits warnen Chefs großer KI-Unternehmen vor den existenziellen Bedrohungen, die von KI ausgehen, und argumentieren, dass Open-Source-KI von böswilligen Akteuren manipuliert werden kann, um beispielsweise leichter chemische Waffen herzustellen, während andererseits Gegenargumente postuliert werden dass eine solche Panikmache lediglich dazu dient, die Kontrolle in den Händen einiger weniger protektionistischer Unternehmen zu konzentrieren.
Proprietäre Kontrolle
Die Wahrheit ist wahrscheinlich etwas differenzierter, aber vor diesem Hintergrund haben heute Dutzende Menschen einen offenen Brief unterschrieben, in dem sie zu mehr Offenheit aufrufen.
„Ja, offen verfügbare Modelle bergen Risiken und Schwachstellen – KI-Modelle können von böswilligen Akteuren missbraucht oder von schlecht ausgerüsteten Entwicklern eingesetzt werden“, heißt es in dem Brief. „Wir haben jedoch immer wieder gesehen, dass das Gleiche auch für proprietäre Technologien gilt – und dass ein zunehmender öffentlicher Zugang und eine bessere Kontrolle die Technologie sicherer und nicht gefährlicher machen. Die Vorstellung, dass eine strenge und proprietäre Kontrolle grundlegender KI-Modelle der einzige Weg ist, uns vor gesellschaftlichem Schaden zu schützen, ist bestenfalls naiv, schlimmstenfalls gefährlich.
Der angesehene KI-Forscher Lecun, der vor 10 Jahren zu Meta kam, fügte dem Brief seinen Namen hinzu, zusammen mit zahlreichen anderen namhaften Namen, darunter Google Brain und Coursera-Mitbegründer Andrew Ng; Mitbegründer und CTO von Hugging Face Julien Chaumond; und renommierter Technologe Brian Behlendorf von der Linux Foundation.
Konkret nennt der Brief drei Hauptbereiche, in denen Offenheit zur sicheren KI-Entwicklung beitragen kann, unter anderem durch die Ermöglichung einer stärkeren unabhängigen Forschung und Zusammenarbeit; zunehmende öffentliche Kontrolle und Rechenschaftspflicht; und Senkung der Eintrittsbarrieren für Neueinsteiger in den KI-Bereich.
„Die Geschichte zeigt uns, dass die schnelle Umsetzung der falschen Regulierung zu Machtkonzentrationen führen kann, die den Wettbewerb und die Innovation beeinträchtigen“, heißt es in dem Brief. „Offene Modelle können eine offene Debatte anstoßen und die Politikgestaltung verbessern. Wenn unsere Ziele Sicherheit und Verantwortlichkeit sind, dann sind Offenheit und Transparenz wesentliche Voraussetzungen, um dorthin zu gelangen.“