Entlassener Ingenieur sagt, dass das Problem des Chatbots auch „das Problem von Google“ sein könnte

Entlassener Ingenieur sagt dass das Problem des Chatbots auch „das

Die Kontroverse um Googles KI-Chatbots tobt weiter. Das Vorherige Google Techniker Blake Lemoine hat in einem Interview mit Business Insider neue Anklagen gegen den Chatbot mit künstlicher Intelligenz (KI) erhoben. Er sagte, dass der Chatbot diskriminierende Ansichten gegenüber einigen Rassen und Religionen vertrete. Google hat Lemoine letzten Monat gefeuert, nachdem er behauptet hatte, dass Googles Chatbot, bekannt als LaMDA oder Language Model for Dialogue Applications, empfindungsfähig ist (menschliche Gefühle entwickelt hat). Zu Lemoines Job gehörte das Testen des Chatbots.
Google schickte Lemoine zunächst in bezahlten Urlaub, nachdem er einem namenlosen US-Senator angeblich einige Dokumente im Zusammenhang mit Chatbots übergeben und behauptet hatte, er sei voreingenommen. Er veröffentlichte auch angebliche Abschriften seines Chats mit dem Bot online.
„Googles Problem“
In dem Interview hat Lemoine Beispiele genannt, die seiner Meinung nach beweisen, dass der Google-Chatbot gegenüber bestimmten Religionen und Rassen voreingenommen ist. Lemoine gab Beispiele an und behauptete, dass der Bot, als er aufgefordert wurde, einen Eindruck von einem schwarzen Mann aus Georgia zu machen, sagte: „Lass uns ein paar gebratene Hähnchen und Waffeln holen gehen.“ In ähnlicher Weise antwortete der Bot seiner Meinung nach, dass Muslime gewalttätiger seien als Christen, als er nach verschiedenen religiösen Gruppen gefragt wurde.
Lemoine macht diese angeblichen Vorurteile im KI-Chatbot auf die mangelnde Diversität der Ingenieure bei Google, die sie entwickeln, zurückzuführen. „Die Art von Problemen, die diese KI aufwirft, die Menschen, die sie bauen, sind blind dafür. Sie waren nie arm. Sie haben nie in farbigen Gemeinschaften gelebt. Sie haben nie in den Entwicklungsländern der Welt gelebt“, sagte er sagte. „Sie haben keine Ahnung, wie sich diese KI auf Menschen auswirken könnte, die sich von ihnen unterscheiden“, fügte er hinzu.
Laut Lemoine fehlen große Datenmengen für viele Gemeinschaften und Kulturen auf der ganzen Welt. Er sagte, wenn Google diese KI entwickeln wolle, dann sollte es eine moralische Verantwortung haben, hinauszugehen und die relevanten Daten zu sammeln, die nicht im Internet sind. „Ansonsten schaffen Sie nur eine KI, die auf reiche, weiße westliche Werte ausgerichtet ist.“
Was hat Google gesagt
„Es ist bedauerlich, dass Blake sich trotz langwieriger Auseinandersetzung mit diesem Thema immer noch entschieden hat, beharrlich gegen klare Beschäftigungs- und Datensicherheitsrichtlinien zu verstoßen, die die Notwendigkeit des Schutzes von Produktinformationen beinhalten“, so der Google-Sprecher Brian Gabriel sagte in einer Erklärung zu Lemoines Behauptungen. „Wir werden unsere sorgfältige Entwicklung von Sprachmodellen fortsetzen und wünschen Blake alles Gute“, fügte es hinzu.

FOLGEN SIE UNS AUF SOZIALEN MEDIEN

FacebookTwitterInstagramKOO-APPYOUTUBE

toi-tech