Künstliche Intelligenz ist nicht nur ein Schlagwort, sondern breitet sich langsam in der gesamten Technologiebranche auf der ganzen Welt aus. Während die Vorteile von KI immens sind, sind auch die Risiken immens. Aus diesem Grund plant China laut einem Bericht der South China Morning Post strikte Beschränkungen für den Einsatz von KI. Dem Bericht zufolge versuchen die chinesischen Behörden, ein Gleichgewicht zwischen den Risiken und Vorteilen der KI zu finden.
China hat einen neuen Leitlinienentwurf veröffentlicht und prüft die Verbesserung zweier Aspekte. Erstens, wie die Trainingsdaten verwendet werden und ob sie sicher sind, und die Sicherheit großer Sprachmodelle (LLMs), die für generative KI-Technologien wie ChatGPT oder verwendet werden Baidu’s Ernie Bot.
Was China tun will
Die Behörden in China wollen sicherstellen, dass alle Daten, die zum Trainieren von KI-Modellen verwendet werden, keine Urheberrechtsverletzungen aufweisen. Außerdem sollten keine personenbezogenen Daten verletzt werden. Dem Bericht zufolge sollte die gesamte Schulung von Daya „von autorisierten Datenkennzeichnern und Prüfern bearbeitet werden, um zunächst die Sicherheitsprüfungen zu bestehen“. Mit anderen Worten: Die Daten sollten zunächst durch das menschliche Auge gehen, bevor sie künstlich erzeugt werden.
Wenn Entwickler ihre LLMs erstellen, sollten diese außerdem „auf grundlegenden Modellen basieren, die bei Behörden eingereicht und von diesen lizenziert wurden“. Auch hierdurch wird sichergestellt, dass die Behörden wissen, welche Informationen in diese Modelle eingespeist werden, die für generative KI verwendet werden.
Keine „illegalen Inhalte“
Chinas Definition illegaler Inhalte ist recht weit gefasst und umfasst sensible politische Informationen. Beispielsweise gelten Fragen zu Taiwan als illegaler Inhalt. Darüber hinaus gelten auch Fake News, die Werbung für Aberglauben oder Pornografie als illegale Inhalte. Der Vorschlagsentwurf sieht vor, alle KI-Trainingsdaten zu blockieren, die mehr als „5 % illegalen Inhalts“ enthalten. Dies liegt daran, dass die Informationen gemäß den chinesischen Cybersicherheitsgesetzen als gefährlich gelten.
China hat den Vorschlagsentwurf eingereicht und bittet bis zum 25. Oktober um öffentliches Feedback.
China hat einen neuen Leitlinienentwurf veröffentlicht und prüft die Verbesserung zweier Aspekte. Erstens, wie die Trainingsdaten verwendet werden und ob sie sicher sind, und die Sicherheit großer Sprachmodelle (LLMs), die für generative KI-Technologien wie ChatGPT oder verwendet werden Baidu’s Ernie Bot.
Was China tun will
Die Behörden in China wollen sicherstellen, dass alle Daten, die zum Trainieren von KI-Modellen verwendet werden, keine Urheberrechtsverletzungen aufweisen. Außerdem sollten keine personenbezogenen Daten verletzt werden. Dem Bericht zufolge sollte die gesamte Schulung von Daya „von autorisierten Datenkennzeichnern und Prüfern bearbeitet werden, um zunächst die Sicherheitsprüfungen zu bestehen“. Mit anderen Worten: Die Daten sollten zunächst durch das menschliche Auge gehen, bevor sie künstlich erzeugt werden.
Wenn Entwickler ihre LLMs erstellen, sollten diese außerdem „auf grundlegenden Modellen basieren, die bei Behörden eingereicht und von diesen lizenziert wurden“. Auch hierdurch wird sichergestellt, dass die Behörden wissen, welche Informationen in diese Modelle eingespeist werden, die für generative KI verwendet werden.
Keine „illegalen Inhalte“
Chinas Definition illegaler Inhalte ist recht weit gefasst und umfasst sensible politische Informationen. Beispielsweise gelten Fragen zu Taiwan als illegaler Inhalt. Darüber hinaus gelten auch Fake News, die Werbung für Aberglauben oder Pornografie als illegale Inhalte. Der Vorschlagsentwurf sieht vor, alle KI-Trainingsdaten zu blockieren, die mehr als „5 % illegalen Inhalts“ enthalten. Dies liegt daran, dass die Informationen gemäß den chinesischen Cybersicherheitsgesetzen als gefährlich gelten.
China hat den Vorschlagsentwurf eingereicht und bittet bis zum 25. Oktober um öffentliches Feedback.