Da stimmt es Dank der Verabschiedung mehrerer Gesetze, wie dem California Consumer Privacy Act (CCPA) und unverbindliche Dokumente, wie z Blaupause für eine KI-Bill of Rights. Derzeit gibt es jedoch keine Standardvorschriften, die vorschreiben, wie Technologieunternehmen Voreingenommenheit und Diskriminierung durch KI mindern sollten.
Infolgedessen geraten viele Unternehmen bei der Entwicklung ethischer, datenschutzorientierter Tools ins Hintertreffen. Fast 80% der Datenwissenschaftler in den USA sind männlich und 66 % weiß, was einen inhärenten Mangel an Diversität und demografischer Repräsentation bei der Entwicklung automatisierter Entscheidungsfindungstools zeigt, was oft zu verzerrten Datenergebnissen führt.
Signifikante Verbesserungen bei Design-Review-Prozessen sind erforderlich, um sicherzustellen, dass Technologieunternehmen bei der Erstellung und Änderung ihrer Produkte alle Menschen berücksichtigen. Andernfalls riskieren Unternehmen, Kunden an die Konkurrenz zu verlieren, ihren Ruf zu schädigen und ernsthafte Klagen zu riskieren. Laut IBM, ungefähr 85% der IT-Experten glauben, dass Verbraucher Unternehmen auswählen, die transparent darüber sind, wie ihre KI-Algorithmen erstellt, verwaltet und verwendet werden. Wir können davon ausgehen, dass diese Zahl steigen wird, da immer mehr Benutzer weiterhin gegen schädliche und voreingenommene Technologien Stellung beziehen.
Was müssen Unternehmen also bei der Analyse ihrer Prototypen beachten? Hier sind vier Fragen, die sich Entwicklungsteams stellen sollten:
Haben wir alle Arten von Bias in unserem Prototyp ausgeschlossen?
Technologie hat die Fähigkeit, die Gesellschaft, wie wir sie kennen, zu revolutionieren, aber sie wird letztendlich scheitern, wenn sie nicht allen gleichermaßen zugute kommt.
Um eine effektive, vorurteilsfreie Technologie zu entwickeln, sollten KI-Teams eine Liste mit Fragen erstellen, die sie während des Überprüfungsprozesses stellen müssen, um potenzielle Probleme in ihren Modellen zu identifizieren.
Es gibt viele Methoden, die KI-Teams verwenden können, um ihre Modelle zu bewerten, aber bevor sie dies tun, ist es wichtig, das Endziel zu bewerten und festzustellen, ob es Gruppen gibt, die möglicherweise unverhältnismäßig stark von den Ergebnissen des Einsatzes von KI betroffen sind.
Beispielsweise sollten KI-Teams berücksichtigen, dass der Einsatz von Gesichtserkennungstechnologien unabsichtlich People of Color diskriminieren kann – etwas, das in KI-Algorithmen viel zu oft vorkommt. Forschung durchgeführt von der American Civil Liberties Union im Jahr 2018 zeigte, dass die Gesichtserkennung von Amazon 28 Mitglieder des US-Kongresses fälschlicherweise mit Fahndungsfotos abgeglichen hat. Erstaunliche 40 % der falschen Übereinstimmungen waren Farbige, obwohl sie nur 20 % des Kongresses ausmachten.
Durch das Stellen herausfordernder Fragen können KI-Teams neue Wege zur Verbesserung ihrer Modelle finden und versuchen, das Eintreten dieser Szenarien zu verhindern. Eine genaue Prüfung kann ihnen beispielsweise dabei helfen, festzustellen, ob sie sich weitere Daten ansehen müssen oder ob sie einen Dritten, z. B. einen Datenschutzexperten, benötigen, um ihr Produkt zu überprüfen.
Plot4AI ist eine großartige Ressource für diejenigen, die anfangen möchten.