Google sagt, dass Kunden seine KI in „Hochrisiko“-Domänen verwenden können, solange es eine menschliche Aufsicht gibt

Google hat seine Bedingungen geändert, um klarzustellen, dass Kunden seine generativen KI-Tools einsetzen können, um „automatisierte Entscheidungen“ in „Hochrisikobereichen“ wie dem Gesundheitswesen zu treffen, solange ein Mensch beteiligt ist.

Nach Angaben des Unternehmens aktualisiert Gemäß der am Dienstag veröffentlichten Richtlinie zur verbotenen Nutzung generativer KI können Kunden die generative KI von Google nutzen, um „automatisierte Entscheidungen“ zu treffen, die „erhebliche nachteilige Auswirkungen auf die Rechte des Einzelnen“ haben könnten. Vorausgesetzt, dass ein Mensch in irgendeiner Funktion die Aufsicht übernimmt, können Kunden die generative KI von Google nutzen, um Entscheidungen über Beschäftigung, Wohnen, Versicherungen, Sozialfürsorge und andere „Hochrisiko“-Bereiche zu treffen.

Im Zusammenhang mit KI beziehen sich automatisierte Entscheidungen auf Entscheidungen, die von einem KI-System auf der Grundlage sowohl sachlicher als auch abgeleiteter Daten getroffen werden. Ein System könnte beispielsweise eine automatisierte Entscheidung über die Vergabe eines Kredits treffen oder einen Bewerber prüfen.

Der vorherige Der Entwurf der Bedingungen von Google sah ein generelles Verbot hochriskanter automatisierter Entscheidungsfindung vor, wenn diese die generative KI des Unternehmens betrifft. Aber Google teilt Tech-Kunden mit, dass sie seine generative KI immer für die automatisierte Entscheidungsfindung nutzen könnten, selbst für Anwendungen mit hohem Risiko, solange ein Mensch die Aufsicht übernimmt.

„Die Anforderung der menschlichen Aufsicht war schon immer Teil unserer Richtlinien für alle Hochrisiko-Domains“, sagte ein Google-Sprecher, als er per E-Mail um einen Kommentar gebeten wurde. „[W]Wir kategorisieren einige Elemente neu [in our terms] und einige Beispiele expliziter hervorheben, um es für Benutzer klarer zu machen.“

Die größten KI-Konkurrenten von Google, OpenAI und Anthropic, haben strengere Regeln für den Einsatz ihrer KI bei der risikoreichen automatisierten Entscheidungsfindung. OpenAI verbietet beispielsweise die Nutzung seiner Dienste für automatisierte Entscheidungen in Bezug auf Kredit, Beschäftigung, Wohnen, Bildung, soziale Bewertung und Versicherung. Anthropic erlaubt den Einsatz seiner KI in den Bereichen Recht, Versicherungen, Gesundheitswesen und anderen Hochrisikobereichen zur automatisierten Entscheidungsfindung, jedoch nur unter der Aufsicht eines „qualifizierten Fachmanns“ – und verlangt von den Kunden, offenzulegen, dass sie hierfür KI verwenden Zweck.

KI, die automatisierte Entscheidungen trifft, die Einzelpersonen betreffen, ist von den Regulierungsbehörden ins Visier genommen worden, die Bedenken hinsichtlich des Potenzials der Technologie zur Verzerrung von Ergebnissen geäußert haben. Studien zeigenBeispielsweise kann die Tatsache, dass KI zur Entscheidungsfindung wie der Genehmigung von Kredit- und Hypothekenanträgen eingesetzt wird, die historische Diskriminierung aufrechterhalten.

Die gemeinnützige Gruppe Human Rights Watch hat angerufen insbesondere für das Verbot von „Social-Scoring“-Systemen, die nach Angaben der Organisation den Zugang der Menschen zu Sozialversicherungsleistungen zu behindern, ihre Privatsphäre zu gefährden und sie in nachteiliger Weise zu profilieren drohen.

Nach dem KI-Gesetz in der EU unterliegen KI-Systeme mit hohem Risiko, einschließlich solcher, die individuelle Kredit- und Beschäftigungsentscheidungen treffen, der größten Aufsicht. Anbieter dieser Systeme müssen sich unter anderem in einer Datenbank registrieren, ein Qualitäts- und Risikomanagement durchführen, menschliche Vorgesetzte beschäftigen und Vorfälle den zuständigen Behörden melden.

In den USA hat Colorado kürzlich ein Gesetz verabschiedet, das KI-Entwicklern vorschreibt, Informationen über „hochriskante“ KI-Systeme offenzulegen und Erklärungen zu veröffentlichen, in denen die Fähigkeiten und Einschränkungen der Systeme zusammengefasst werden. Die Stadt New York unterdessen verbietet Arbeitgebern die Verwendung automatisierter Tools zur Überprüfung eines Kandidaten für Einstellungsentscheidungen, es sei denn, das Tool wurde im Vorjahr einer Voreingenommenheitsprüfung unterzogen.

Tech hat einen KI-fokussierten Newsletter! Melden Sie sich hier an um es jeden Mittwoch in Ihrem Posteingang zu erhalten.

tch-1-tech