OpenAI-Führungskräfte schlagen eine internationale Regulierungsbehörde für KI vor

Die EU schlaegt einen 12 Milliarden Dollar Plan vor um den wachsenden Cybersicherheitsbedrohungen

KI entwickelt sich schnell genug und die Gefahren, die sie mit sich bringen kann, sind klar genug, dass die Führung von OpenAI davon überzeugt ist, dass die Welt eine internationale Regulierungsbehörde braucht, ähnlich der für die Kernenergie – und zwar schnell. Aber nicht zu schnell.

In einem Beitrag im Blog des Unternehmenserklären OpenAI-Gründer Sam Altman, Präsident Greg Brockman und Chefwissenschaftler Ilya Sutskever, dass das Innovationstempo im Bereich der künstlichen Intelligenz so schnell ist, dass wir nicht erwarten können, dass die bestehenden Behörden die Technologie angemessen eindämmen.

Auch wenn man sich hier auf die Schulter klopft, ist jedem unvoreingenommenen Beobachter klar, dass die Technologie, am sichtbarsten im äußerst beliebten ChatGPT-Konversationsagenten von OpenAI, eine einzigartige Bedrohung und einen unschätzbaren Vorteil darstellt.

Der Beitrag, der in der Regel eher wenig Details und Verpflichtungen enthält, räumt dennoch ein, dass die KI sich nicht selbst verwalten wird:

Wir brauchen ein gewisses Maß an Koordination zwischen den führenden Entwicklungsbemühungen, um sicherzustellen, dass die Entwicklung der Superintelligenz auf eine Weise erfolgt, die es uns ermöglicht, sowohl die Sicherheit aufrechtzuerhalten als auch zur reibungslosen Integration dieser Systeme in die Gesellschaft beizutragen.

Wir werden wahrscheinlich irgendwann so etwas brauchen [International Atomic Energy Agency] für Superintelligenzbemühungen; Jeder Aufwand, der über einem bestimmten Schwellenwert für Fähigkeiten (oder Ressourcen wie Rechenleistung) liegt, muss einer internationalen Behörde unterliegen, die Systeme inspizieren, Audits anfordern, die Einhaltung von Sicherheitsstandards prüfen, den Grad der Bereitstellung und das Sicherheitsniveau einschränken kann usw.

Der IAEO ist das offizielle Gremium der Vereinten Nationen für die internationale Zusammenarbeit in Fragen der Kernenergie, auch wenn es ihm wie anderen Organisationen dieser Art natürlich an Durchschlagskraft mangeln kann. Ein auf diesem Modell aufbauendes KI-Verwaltungsgremium ist möglicherweise nicht in der Lage, einen schlechten Akteur auszuschalten, aber es kann internationale Standards und Vereinbarungen festlegen und verfolgen, was zumindest einen Ausgangspunkt darstellt.

In dem Beitrag von OpenAI wird darauf hingewiesen, dass die Verfolgung der Rechenleistung und des Energieverbrauchs für die KI-Forschung eine der relativ wenigen objektiven Maßnahmen ist, die gemeldet und verfolgt werden können und wahrscheinlich auch sollten. Während es schwierig sein mag zu sagen, ob KI für dieses oder jenes eingesetzt werden sollte oder nicht, kann es nützlich sein zu sagen, dass die dafür vorgesehenen Ressourcen, wie in anderen Branchen auch, überwacht und geprüft werden sollten. (Kleinere Unternehmen könnten davon ausgenommen werden, um die ersten Triebe der Innovation nicht zu ersticken, schlug das Unternehmen vor.)

Der führende KI-Forscher und Kritiker Timnit Gebru sagte heute etwas Ähnliches in einem Interview mit The Guardian: „Solange es keinen externen Druck gibt, etwas anders zu machen, werden sich Unternehmen nicht einfach selbst regulieren. Wir brauchen Regulierung und wir brauchen etwas Besseres als nur das Gewinnstreben.“

OpenAI hat Letzteres sichtlich angenommen, zum Entsetzen vieler, die gehofft hatten, dass es seinem Namen alle Ehre machen würde, aber zumindest als Marktführer fordert es auch echte Maßnahmen auf der Governance-Seite – über Anhörungen wie die letzte hinaus, bei denen sich die Senatoren aufstellen Wiederwahlreden zu halten, die mit Fragezeichen enden.

Während der Vorschlag darauf hinausläuft, „Vielleicht sollten wir etwas tun“, ist er zumindest ein Gesprächsstarter in der Branche und zeigt die Unterstützung der weltweit größten KI-Marke und des größten KI-Anbieters dafür, etwas zu tun. Eine öffentliche Aufsicht sei dringend nötig, aber „wir wissen noch nicht, wie wir einen solchen Mechanismus gestalten sollen.“

Und obwohl die Führungskräfte des Unternehmens sagen, dass sie es unterstützen, auf die Bremse zu treten, gibt es noch keine Pläne, dies zu tun, sowohl weil sie das enorme Potenzial „zur Verbesserung unserer Gesellschaften“ (ganz zu schweigen vom Endergebnis) nicht ungenutzt lassen wollen, als auch denn es besteht die Gefahr, dass schlechte Akteure Vollgas geben.

tch-1-tech