Das Verbot von KI, die in China die „Staatsmacht untergräbt“, könnte seine aufstrebende Industrie abschrecken

Die Kolosseen von Elden Ring oeffnen morgen endlich im kostenlosen

Chinesische Regulierungsbehörden haben restriktive Regeln für KI-Modelle wie ChatGPT vorgeschlagen, die im Land gebaut werden, die Benutzeridentifikation und Sicherheitsüberprüfungen verlangen und „jeden Inhalt verbieten, der die Staatsmacht untergräbt, den Sturz des sozialistischen Systems befürwortet, zur Spaltung des Landes anstiftet oder die nationale Einheit untergräbt .“

Die Regeln folgen chinesischen Technologieunternehmen, die ihre Versionen von Allzweck-Large-Language-Modellen einführen, vielseitige KI-Systeme, die sich in natürlicher Sprache unterhalten und eine überraschende Anzahl von Aufgaben ausführen können. Während der Empfang der Modelle von SenseTime, Baidu und Alibaba im letzten Monat darauf hindeutet, dass sie etwas hinter GPT-4 zurückbleiben, ist klar, dass sich die Branche dort gleichermaßen der Entwicklung dieser Fähigkeiten verschrieben hat.

Leider hat kurz nach dem Debüt von Alibabas Tongyi Qianwen-Modell eine der technischen Regulierungsbehörden des Landes, die Cyberspace Administration of China, Beschränkungen vorgeschlagen, die relevante Innovationen ersticken könnten – und damit auch die Ambitionen der chinesischen KI-Industrie.

Die Entwurfsregeln sind nicht auf Englisch verfügbar (ich habe das obige Zitat aus der Übersetzung der Financial Times bei Ars Technica syndiziert), kann aber auf der Website der Regulierungsbehörde eingesehen werden Hier. Der erste Teil von Artikel 4 verbietet generative KI, die die Macht und Autorität der Regierung untergräbt oder die nationale Einheit in Frage stellt, zusammen mit verschiedenen anderen Kategorien von Verboten wie ethnische Diskriminierung, Terrorismus und so weiter.

Diese Art von Catch-All-Moral-Klausel ist in China alltäglich, aber es ist zufällig die Art von Einschränkung, die die generative KI auf einzigartige Weise nicht einhalten kann. Selbst der am sorgfältigsten ausgebildete und abgestimmte LLM scheint in der Lage zu sein, dazu verleitet zu werden, alle möglichen anstößigen Dinge zu sagen. Ob die chinesischen Zensoren entscheiden, dass dies gesetzeskonform ist oder nicht, liegt mehr oder weniger ganz bei ihnen, was die Aussicht, ernsthafte Ressourcen für ein solches Projekt aufzuwenden, etwas angespannt macht.

Natürlich existiert ein Großteil der chinesischen Industrie unter einem ähnlich schwebenden Dolch, und obwohl Chinas Regulierungsbehörden launisch sind, sind sie nicht dumm genug, die Früchte der jahrelangen Förderung von Forschung und Entwicklung durch die Regierung im Land wegzuwerfen. Es ist wahrscheinlich, dass dies, ähnlich wie andere inhaltsbeschränkende Gesetze dort, eher als Feigenblatt und eiserner Vorwand für die Einflussnahme der Regierung fungieren wird – nicht als pauschales Verbot.

Wenn überhaupt, sind es die anderen Anforderungen, die die KI-Entwicklung dort zu einem Kriechen verlangsamen können.

Die CAC-Regelungsentwürfe verlangen unter anderem, dass Anbieter die Haftung und Verantwortung für die Trainingsdaten von Modellen übernehmen, einschließlich schwer zu messender Metriken wie Authentizität, Objektivität und Diversität; Benutzer der Dienste müssen als echte Personen verifiziert werden; personenbezogene Daten und der Ruf müssen respektiert werden oder die Regulierungsbehörden können den Anbieter haftbar machen; generierte Inhalte sind als solche zu kennzeichnen; und viele andere Einschränkungen.

Sicherlich könnten einige dieser Anforderungen für eine verantwortungsbewusste KI-Industrie als umsichtig oder sogar kritisch angesehen werden, aber die Wahrheit ist, dass viele von ihnen unglaublich schwierig, vielleicht unmöglich, von den heutigen Unternehmen und F&E-Bemühungen umzusetzen wären. OpenAI hat seinen Erfolg zum Teil deshalb erzielt, weil es in einem fast vollständigen Regulierungsvakuum arbeitet. Wenn das Gesetz verlangt, dass das Unternehmen beispielsweise die Erlaubnis der Rechteinhaber der Texte und Medien einholt, die es zum Trainieren seiner Modelle verwendet, würde es wahrscheinlich immer noch darauf warten, GPT-2 zu bauen.

Wenn ein KI-Startup oder sogar ein etabliertes Unternehmen aus Angst vor massiven Verstößen gegen diese Regeln nicht selbstbewusst in China operieren kann, entscheiden sie möglicherweise, dass ihre Ressourcen woanders besser angelegt sind. So schnelllebig diese Branche auch ist, ein solcher Rückschlag kann sehr schwer wieder aufzuholen sein.

Die Financial Times zitiert Alibabas Vorstandsvorsitzender, Daniel Zhang, mit den Worten: „Wenn wir in 10 bis 20 Jahren zurückblicken, werden wir feststellen, dass wir alle an derselben Startlinie standen.“ Das ist mit ziemlicher Sicherheit richtig, und aus einer ähnlichen Perspektive können wir gut sehen, wie Regulierung Innovationen drosselt – oder vielleicht wie sie ein stagnierendes Monopol verhindert oder Menschen vor dem gut organisierten Massendiebstahl ihrer Daten schützt.

Die Regelentwürfe können im nächsten Monat kommentiert werden (offensichtlich von Parteien in China), danach können sie überarbeitet werden oder nicht, und sie sollen später in diesem Jahr in Kraft treten.

tch-1-tech