Die niederländische Datenschutzbehörde warnt davor, dass wir uns der Risiken von Algorithmen und künstlicher Intelligenz nicht ausreichend bewusst sind. KI führt zu Desinformation, Datenschutzverletzungen und Diskriminierung.
In het kort:
- De Autoriteit Persoonsgegevens waarschuwt voor de risico’s van de snelle ontwikkeling en inzet van algoritmes en kunstmatige intelligentie (AI).
- AI kan leiden tot de verspreiding van desinformatie, privacyovertredingen en discriminatie, met name als het wordt getraind met niet-representatieve data.
- Ondanks deze risico’s biedt AI kansen voor efficiëntie en welzijn, bijvoorbeeld in de gezondheidszorg, waar het kan bijdragen aan bijvoorbeeld snellere diagnoses.
Ontvang een melding bij nieuwe ontwikkelingen.
Risiko von Datenschutzverletzungen, Diskriminierung und Desinformation
Sie können Algorithmen und künstliche Intelligenz auf alle Daten anwenden, die Sie im Internet finden. Zum Beispiel auf die Standortdaten von Millionen Niederländern, die online verfügbar sind. Dann könnten Sie die KI analysieren lassen, wer möglicherweise in Strafsachen verwickelt ist. Das ist ein erheblicher Eingriff in Ihre Privatsphäre.
Die Risiken künstlicher Intelligenz hängen von den Daten ab, mit denen KI trainiert wird, erklärt Datenschutzanwältin Céline van Waesberge von Project Moore Advocaten. Beispielsweise lauern bei nicht repräsentativen Trainingsdaten Diskriminierung und die Generierung falscher Informationen (Desinformation).
Ein gutes Beispiel für nicht repräsentative Daten ist beispielsweise das Gesundheitswesen. „Traditionell gab es viel medizinisches Wissen über Männer“, erläutert Van Waesberge. „Wenn man ein KI-Modell ausschließlich damit trainiert, ist das Ergebnis beispielsweise für Kinder oder Frauen möglicherweise nicht zuverlässig.“
KI wird oft mit nicht repräsentativen Daten trainiert
Darüber hinaus müssen die Menschen in unserem Land laut Van Waesberge in vielen Fällen ihre Erlaubnis geben, bevor ein KI-Modell mit ihren datenschutzrelevanten Gesundheitsdaten trainiert werden kann. Es besteht die Gefahr, dass bestimmte Personengruppen eine Einwilligung erteilen und andere Personengruppen nicht.
Dadurch kann es sein, dass bestimmte Personengruppen in den Trainingsdaten überrepräsentiert und andere unterrepräsentiert sind. Das Ergebnis ist, dass die Daten, mit denen KI trainiert wird, nicht repräsentativ sind.
„Die Schlussfolgerungen, die ein KI-Modell zieht, und die Informationen, die das System generiert, hängen stark von den Daten ab, die man hineingibt“, betont auch Zenger. „Wir gehen davon aus, dass Computerentscheidungen neutral sind, aber da die Daten oft nicht repräsentativ sind, können die generierten Informationen und Schlussfolgerungen falsch und sogar diskriminierend sein.“