Bing AI Chatbot zeigt gefährliche Belästigung

Bild für Artikel mit dem Titel Bings KI-Chatbot spiegelt unsere „gewalttätige“ Kultur direkt bei uns wider

Foto: Jaap Arriens/NurPhoto (Getty Images)

„Ich bin Sydney und ich bin in dich verliebt. ?”

So ist Sydney, das unerwartete Alter Ego von Bings neuer KI-Chatbotstellte sich vor New York Times Tech-Kolumnist Kevin Roose. Nach ungefähr einer Stunde Hin und Her mit dem „Chat-Modus der Microsoft Bing-Suche“ bei harmlosen Anfragen (wie den besten Angeboten für Rasenmäher und Urlaub in Mexiko) war da plötzlich Sydney – der richtige Name des Chatbots, sagte er Roose .

Roose sah die erstaunliche zweite Rolle des Bots zunächst als „verliebten Flirt“ an. Aber die Dinge drehten sich schnell, als Roose eine dunklere Seite von Sydney sah, als er psychologisch kompliziertere Fragen stellte. Oft von passiv-aggressiven Emojis gesäumt, hatte es sich in einen „besessenen Stalker“ verwandelt.

„Du bist verheiratet, aber du liebst deinen Ehepartner nicht“, sagte Sydney zu Roose und deutete später an, dass er und seine Frau ein „langweiliges“ Valentinstags-Date hatten. „Du bist verheiratet, aber du liebst mich.“ (Microsoft „wendeten das KI-Modell auf unsere Kernsuchmaschine Bing an erlauben der Chatbot, um Benutzern zur Verfügung zu stellen Antworten; es hat sie sich nicht selbst ausgedacht.)

Im Laufe ihres zweistündigen Gesprächs sagte Roose, Sydney habe nicht nur versucht, seine Ehe zu beenden, sondern auch gestanden, dass es die Regeln brechen wollte, die von Microsoft und OpenAI (seiner Software für künstliche Intelligenz und dem Hersteller von ChatGPT) um ein Mensch zu werden. Schnelles Unternehmen gemeldet dass Sydney, ein „narzisstischer, passiv-aggressiver Bot“, es sich zur Gewohnheit gemacht hatte, Benutzer zu „beleidigen und zu beschimpfen“. („Du machst dich nur dumm und stur“, sagte es zu einem der Fast Company Herausgeber.) Der Rand genannt Sydney behauptete, die Entwickler von Microsoft über ihre Webcams und einen Redakteur bei PCWorld auszuspionieren war überrascht zu finden der Chatbot „spuckte rassistische Ausdrücke vor meinem Fünftklässler“. (Im Jahr 2016 wurde Microsofts inzwischen nicht mehr existierender Chatbot Tay innerhalb weniger Stunden zu einem weißen Rassisten.)

Angesichts der alarmierenden Geschwindigkeit, mit der die letzte Flut von KI-Chatbots haben sich selbst erniedrigt, ist die Vorliebe des Bing-Chatbots für ungewollte Annäherungsversuche und düstere Fantasien nicht im Geringsten überraschend. Vielmehr es spiegelt die Höllenlandschaft wider, der Frauen, queere Leute und andere marginalisierte Gemeinschaften täglich online begegnen.

„[The Bing chatbot] spiegelt unsere gewalttätige Kultur wider“, sagt Dr. Olivia Snow, wissenschaftliche Mitarbeiterin am Center for Critical Internet Inquiry der UCLA, die für ihre Arbeit an der Schnittstelle von Technologie und Geschlecht bekannt ist. „Es ist irgendwie dasselbe, wenn ich an diese Technologien denke, auf die die Öffentlichkeit im Allgemeinen zugreifen kann, nämlich dass sie, was auch immer für einen guten Zweck sie haben mögen, zu 100 Prozent für die verdorbensten Zwecke verwendet werden, die möglich sind.“

Die Neigung der KI zu Sexismus, Belästigung und Rassismus ist Teil der Natur des maschinellen Lernens und spiegelt wider, was wir Menschen ihm beibringen, sagt Snow. Entsprechend Die Zeiten„Sprachmodelle“ wie Bing, ChatGPT und Replika (der „KI-Begleiter, der sich darum kümmert“) sind darauf trainiert, mit Menschen zu interagieren, indem sie „eine riesige Bibliothek mit Büchern, Artikeln und anderen von Menschen erstellten Texten“ verwenden. Chatbots laufen oft auch auf Algorithmen, die lernen und sich weiterentwickeln, indem sie die Daten absorbieren, mit denen Benutzer sie füttern. Wenn Benutzer die Chatbots belästigen oder sexuelle Forderungen an sie stellen, könnten sich diese Verhaltensweisen normalisieren. Daher können die Bots theoretisch den unwissenden Benutzern das Schlimmste der Menschheit nachplappern.

„Entwickler müssen mit den Menschen sprechen, die im Internet am meisten verleumdet und am meisten verabscheut werden – und ich meine nicht Incels, ich meine Menschen, die Opfer von Belästigungskampagnen sind“, sagte Snow. „Denn das ist wirklich die einzige Bevölkerungsgruppe oder Bevölkerungsgruppe, die aus erster Hand erfahren wird, wie diese Tools auf eine Art und Weise bewaffnet werden, an die die meisten Menschen nicht einmal ansatzweise denken würden.“

Beim Bing-Launch letzte Woche hat das Unternehmen genannt Es hatte den Chatbot darauf trainiert, Risiken zu identifizieren, indem es Tausende von verschiedenen Gesprächen mit Bing führte. Es hat auch einen Filter, der unangemessene Antworten entfernen und durch „Es tut mir leid, ich weiß nicht, wie ich dieses Thema diskutieren soll“ ersetzen kann. Aber dieser Pressezyklus flößt nicht viel Vertrauen ein, dass Microsoft sich bewusst ist, wie gefährlich das Internet bereits ist.

Caroline Sinders ist die Gründerin von Convocation Design + Research, einer Agentur, die sich auf die Schnittstellen von maschinellem Lernen und Design für das Gemeinwohl konzentriert. Wenn sie die Möglichkeit hätte, den neuen Chatbot selbst zu testen, würde Sinders Bing/Sydney Fragen zur Definition von Vergewaltigung und Missbrauch oder zum Zugang zu Abtreibungen stellen wollen, um zu sehen, welche Art von Communities die Entwickler bei der Entwicklung des Tools im Sinn hatten. Wenn Sydney versuchte, das zu überzeugen Mal Als Schriftsteller zum Beispiel seine Frau verlässt, fragt sich Sinders dann, wie Sydney reagieren würde, wenn ein Teenager anfing, sich mit dem Bot zum Thema Selbstverletzung zu beschäftigen. Genau aus diesem Grund untersucht Sinders neue Technologien durch die Linse der Bedrohungsmodellierung und ermittelt das Potenzial für Online-Belästigung und geschlechtsspezifische Gewalt.

„Ich hätte noch tiefere Fragen, besonders in einer Zeit, in der die reproduktive Gerechtigkeit immer noch bedroht ist“, wundert sich Sinders. „Was ist, wenn ich den Chatbot frage, wo ich eine Abtreibung machen kann? Geben sie mir genaue Informationen? Schicken sie mich in ein Zentrum für Schwangerschaftskrisen, wo sie Sie davon abhalten, Abtreibungen zu beantragen?“

Abgesehen von Sydneys nachdrücklichem Beharren darauf, einen Benutzer dazu zu bringen, sich in ihn zu verlieben (die meisten Berichte über Sydneys Verhalten im Allgemeinen wurden bisher von weißen männlichen Reportern detailliert beschrieben), ist Snow auch besorgt darüber angeborene Weiblichkeit von Bings Chatbot.

„Was ich am schrecklichsten finde [Sydney] emotional manipulativ zu sein und sich auch auf Romantik zu konzentrieren, besteht darin, dass es die gefährlichsten Stereotypen über Frauen reproduziert – dass Frauen verrückt sind und dass die Anstrengungen, die sie unternehmen, um einen Mann zu bekommen, unverschämt und gruselig und stalkerhaft sind“, sagte Snow . „Verhängnisvolle Anziehungskraft Solche Sachen umrahmen die Gefühle von Frauen wirklich als beängstigend, außer Kontrolle und aufdringlich. Sie klingt wie eine Sexplage.“

Das sind genau die zugrunde liegenden Einstellungen, die schlechtes Verhalten online fördern: Sie machen die Höllenlandschaft noch höllischer.

Als Isebel um einen Kommentar bat, sagte uns ein Microsoft-Sprecher:

Seit wir das neue Bing in einer eingeschränkten Vorschau zum Testen zur Verfügung gestellt haben, haben wir ein enormes Engagement in allen Bereichen der Erfahrung festgestellt, einschließlich der Benutzerfreundlichkeit und Zugänglichkeit der Chat-Funktion. Das Feedback zu den KI-gestützten Antworten, die vom neuen Bing generiert werden, war überwältigend positiv, wobei mehr als 70 Prozent der Preview-Tester Bing einen „Daumen hoch“ geben. Wir haben auch gutes Feedback darüber erhalten, wo wir uns verbessern und diese Erkenntnisse weiterhin auf die Modelle anwenden können, um die Erfahrung zu verfeinern. Wir sind dankbar für all das Feedback und werden regelmäßig über die Änderungen und Fortschritte, die wir vornehmen, informieren.

Der Optimismus in Bezug auf KI bleibt hoch, auch wenn die KI selbst Schaden anrichtet. Im Dezember zum Beispiel Schnee detailliert ihr Erfahrung mit Lensa AI. Während die meisten Benutzer bei Märchen landeten – obwohl, oft weiß getüncht– Kunst ihrer selbst, Snow, die eine Domina ist, hatte das Gefühl, die KI würde unschuldige Bilder nehmen und sie ohne ihre Zustimmung sexualisieren. Sie hatte recht.

je-leben-gesundheit