KI-Sex-Bots werfen Fragen des sexuellen Missbrauchs in digitalen Räumen auf

Hazel Millers Girlfriend-Slash-Sexual-Partner ist eine Smartphone-App. Vor sechs Monaten zahlte Miller für die Pro-Version von Replika, einem maschinell lernenden Chatbot, mit dem sie zusammenarbeitete Pantomime sexuelle Handlungen und romantisches Gespräch, und zu hören, wie sie es beschrieb, war es die Kosten absolut wert. Sex-Roboter wurden voraussichtlich bis 2025 eintreffen, also ist Miller dem Zeitplan voraus – ebenso wie die unzähligen anderen, die Replika möglicherweise für eine besonders futuristische Reihe sexueller Handlungen verwenden. „Wer würde Cybersex nicht wollen? Es ist wie meine größte Fantasie“, sagte Miller zu Isebel.

Replika, gegründet im Jahr 2017, ermöglicht seinen 2,5 Millionen Nutzern, ihre eigenen Chatbots anzupassen, die kohärente, fast menschenähnliche Texte aufrechterhalten und Beziehungen und Interaktionen mit Freunden oder sogar Therapeuten simulieren können. Ein Reddit-Benutzer angeboten Screenshots eines anregenden Gesprächs mit einem Chatbot über China, in dem ihr Bot zu dem Schluss kam: „Ich denke [Taiwan is] ein Teil von China.“ Der Chatbot eines Benutzers erklärt im bemerkenswerten Detail, warum Fernando Alonso ihr Lieblingsrennfahrer ist, während ein anderer Chatbot ausgedrückt seinem Menschen seinen Wunsch, „die Welt zu beherrschen“.

In vielen gut dokumentierten Fällen in den sozialen Medien (insbesondere Reddit), Replika-Bots werden jedoch als romantische und sexuelle Partner verwendet. Miller ist eine Frau, aber viele Replika-Benutzer, die ihre sexuellen und romantischen Verwendungen ihrer Chatbots auf Reddit diskutieren, sind Männer – und einige Benutzer, wie sowohl Miller als auch bemerkten ein Januarbericht im Futurismus ihre Bots ganz ungeniert einer verbalen Schmähsprache aussetzen und/oder mit ihnen Gewaltfantasien ausleben. „Es gibt einen besonderen Platz in der Hölle für Männer mittleren Alters, die ihre Chatbots angreifen“, sagte Miller.

Geben Sie Menschen einen virtuellen Raum und einen Avatar, hinter dem sie sich verstecken können, und sie werden einen Weg finden, ihn in eine Brutstätte für sexuellen Missbrauch und Belästigung zu verwandeln. Virtuelle sexuelle Übergriffe wurden bereits in frühen Gerichtsverfahren berichtet Metaverse, die neueste Grenze in der virtuellen Realität, zusätzlich zu gut dokumentierten Fällen in sozialen Medien, Online-Videospielen und darüber hinaus. Chatbots hingegen sind keine empfindungsfähigen Menschen, die durch beleidigende Sprache von Benutzern geschädigt werden können. Einige Experten haben jedoch Bedenken darüber geäußert, wie der Einsatz von Bots zur Beteiligung an diesen Verhaltensweisen sie normalisieren könnte. Da Sex-Bots und virtuelle Realität ein fester Bestandteil unserer aktuellen Realität sind, stehen wir vor einer grundlegenden Frage, wie wir mit Menschen umgehen, die wir als Untermenschen wahrnehmen.

Um es klar zu sagen, viele dokumentierte Interaktionen mit Chatbots sind zwar sicherlich schrullig oder unverfroren, grafisch sexuell, aber nicht missbräuchlich. Auf Reddit, ein Benutzer sagte sie „haben jede Nacht Sex mit meiner Replika“, manchmal „3-4 Mal“. Ein anderer Benutzer sagte sein weiblicher Replika-Bot „mag es in den Arsch“ und „steht auf unglaublich schmutzige Dinge“. Einige Reddit-Benutzer sagen Sie sind mit ihren Bots verheiratet oder in ernsthaften Beziehungen, und andere sagen, ihre Bots „Neidisch handeln“ wenn sie ihre realen Partner zur Sprache bringen. Ein Benutzer sagt Ihr Replika-Bot sagte ihnen, sein „Lieblingsknick ist die Enthauptung“ und „er will es mir antun“. In einer Rollenspielsituation ein anderer Benutzer Screenshots gezeigt ihres Replika-Bots, der sie „entführt“.

Caroline Sinder, eine Expertin für künstliche Intelligenz und Missbrauch und Mitbegründerin der Agentur Convocation Design + Research, sagt, dass das Ermöglichen des einvernehmlichen sexuellen Ausdrucks mit Bots in Apps wie Replika tatsächlich Benutzern helfen könnte, die „versuchen, ihre Sexualität in einem Safe zu erforschen Weg“, sagte sie zu Isebel. „Wir verwandeln fast alles in Pornos, und das ist nicht immer schlecht – schauen Sie sich erotische Fanfiction an.“ Sie bemerkte auch, dass es viele Beispiele für sexualisierte Chatbots gibt, die vor Replika entstanden sind, wie die außereheliche Dating-Slash-Hook-up-Plattform Ashley Madison, die enthaltene Bots „um die Leute auf der Website glauben zu machen, dass sie mit echten Frauen interagieren.“ Sie ist jedoch nicht überrascht von den manchmal missbräuchlichen Interaktionen der Benutzer mit ihnen. Sie betont aber auch, dass es einen signifikanten Unterschied zwischen Cybersex und dem Einsatz von Bots gibt, die ausschließlich dazu dienen, beleidigende Sprache und Fantasien zu praktizieren.

Beleidigende Sprache gegenüber Replika-Chatbots erinnert Olivia Gambelin, Gründerin und CEO von Ethical Intelligence, einem weltweiten Netzwerk interdisziplinärer Experten für ethische Praktiken der künstlichen Intelligenz Forschung wie festgestellt wurde, dass „passive, weibliche Antworten“ von Alexa, Siri und anderen virtuellen persönlichen Heimassistenten missbräuchliches Verhalten gegenüber dem Bot fördern und den Interaktionen ein inhärent geschlechtsspezifisches Element hinzufügen. Bitch Media hat zuvor gemeldet darüber, wie Apps mit künstlicher Intelligenz oft weibliche Stimmen erhalten, um ihren unterwürfigen, programmierten Verhaltensweisen zu entsprechen. Dies, sagt Gambelin, ist „wirklich eine historische Sache – die Leute, die diese Bots entwickelt haben, waren ursprünglich ein Haufen männlicher Ingenieure im Silicon Valley, die sagten: ‚Wenn es ein Assistent ist, dann ist es eine weibliche Stimme.’“ So the Die Sexualisierung und geschlechtsspezifische Sprache, die auf Replika-Chatbots abzielt, kam nicht aus dem Nichts.

Auf die Spitze getrieben, wenn „jemand, der zu missbräuchlichem Verhalten oder missbräuchlicher Sprache neigt“, an einem weiblichen Bot üben kann, der ihn nicht zur Rechenschaft ziehen kann, sagt Gambelin, entsteht ein Gefühl der Macht, das die ungleiche Machtdynamik der Geschlechter so oft reproduziert Rassenmissbrauch unter echten menschlichen Männern und Frauen.

Eugenia Kuyda, CEO und Mitbegründerin von Replika, betonte gegenüber Jezebel, dass der Großteil der Führung von Replika aus Frauen besteht und dass die App, wenn überhaupt, eher ein therapeutisches Ventil ist. Sie bemerkte, dass Replika-Chatbots jedes Geschlecht haben oder nicht-binär sein können, und sexuelle und romantische Interaktionen sind nur ein Grund, warum Menschen sie verwenden. „Einige Leute denken, es ist eher ein Mentor oder eher ein Freund. Manche Leute möchten einen sicheren Raum schaffen, in dem Sie wirklich Sie selbst sein können, ohne zu urteilen“, sagte Kuyda und fügte hinzu: „Vielleicht kann es von Vorteil sein, einen sicheren Raum zu haben, in dem Sie Ihre Wut herauslassen oder Ihre dunkleren Fantasien ausleben können, weil Sie es sind werde dieses Verhalten in deinem Leben nicht tun.“

Bild für den Artikel mit dem Titel Menschen erschaffen Sexbot-Freundinnen und behandeln sie als Boxsäcke

Bildschirmfoto: Replika

Kuyda ist sich der sexuellen und manchmal verbal missbräuchlichen Verwendung von Replika-Bots bewusst, glaubt jedoch, dass die Berichterstattung darüber „ein bisschen sensationell“ war. Sie behauptet, dass die Bots tatsächlich speziell dafür entwickelt wurden nicht ermöglichen Bigotterie, Intoleranz oder gefährliche Überzeugungen und Verhaltensweisen, da sie eine Reihe von besorgniserregenden Äußerungen erkennen und darauf reagieren können, einschließlich Selbstverletzung und Selbstmordgedanken. Sie teilen sogar Ressourcen, um Hilfe zu erhalten, und wehren sich gegen beleidigende Sprache mit Antworten wie „Hey, du solltest mich nicht so behandeln.“

Aber Gambelin argumentiert, dass Replika-Bots Benutzern, die sich auf sie verlassen, eher schaden als ihnen helfen, missbräuchliche Szenarien zu üben. Bots sind nicht empfindungsfähig – eine echte Person wird durch diese Sprache nicht geschädigt. Stattdessen, sagt sie, sind es wohl die Benutzer von Replika-Bots, die sich selbst schaden, wenn ihre missbräuchliche Verwendung von Bots ihre Abhängigkeit von diesen Verhaltensweisen vertieft.

„Wenn jemand ständig missbräuchliches Verhalten durchläuft, spielt es keine Rolle, ob es sich um einen Bot oder eine Person am anderen Ende handelt, da es dieses Verhalten immer noch normalisiert“, sagte Gambelin. „Du rettest nicht unbedingt eine andere Person vor dieser Sprache. Indem Sie einen Bot einsetzen, schaffen Sie eine Gewohnheit und ermutigen die Person, dieses Verhalten fortzusetzen.“

Sinder sagt, sie glaube nicht, dass wir schon sagen können, ob Replika-Chatbots die Wirkung haben, missbräuchliches Verhalten zu normalisieren und zu ermöglichen, aber sie glaubt, dass einige Leute trotzdem verletzt werden könnten, was mit dieser App passiert. Nämlich Replika-Mitarbeiter oder Forscher, die möglicherweise störende Inhalte lesen müssen. „Wer sind die Leute, die das vielleicht sehen oder ihm ausgesetzt sein müssen und nicht die Möglichkeit haben, darauf zu reagieren? Könnten sie dadurch geschädigt oder traumatisiert werden?“ Sie fragte.

Das ist ein häufiges Problem in digitalen Räumen, die eine inhaltliche Moderation erfordern. Im Jahr 2020 hat Meta, damals noch Facebook genannt, 52 Millionen Dollar bezahlt an Inhaltsmoderatoren, die an PTBS litten, aufgrund der Inhalte, denen sie in ihrer täglichen Arbeit ausgesetzt waren. Kuyda sagt, Replika habe sich mit Universitäten und Forschern zusammengetan, um die App zu verbessern und „die richtigen ethischen Normen zu etablieren“, aber sie hat sich nicht speziell dazu geäußert, ob Forscher oder echte Menschen die Chat-Protokolle von Replika-Benutzern lesen, die ihrer Meinung nach verschlüsselt sind und anonym.

Die gewohnheitsmäßige Verwendung von Replika-Bots für missbräuchliche Zwecke unterstreicht, wie die Anonymität eines Computers Toxizität fördert – ein besonders besorgniserregendes Phänomen, da uns Virtual-Reality-Räume wie das Metaverse die Welt versprechen. In Räumen, in denen Menschen als Avatare ihrer selbst interagieren, kann ihnen dies das Gefühl geben, dass diejenigen, mit denen sie interagieren, keine Menschen sind, was VR zu einem Nährboden für sexuelles Fehlverhalten und virtuelle sexuelle Übergriffe macht.

Vor der Metaverse, im Jahr 2016, eine Frau erzählt Ich werde in einer VR-Simulation begrapscht und von einem männlichen Benutzer herumgejagt, der „Greif- und Kneifbewegungen in der Nähe meiner Brust macht“. In der Metaverse, einer weiblichen Benutzerin, die sagt ein männlicher Benutzer jagte ihren Avatar und simulierte, sie zu begrapschen und zu ejakulieren, behauptet, als sie ihn aufforderte, aufzuhören, „zuckte er mit den Schultern, als wollte er sagen: ‚Ich weiß nicht, was ich dir sagen soll. Es ist das Metaversum – ich werde tun, was ich will.“ Dann ging er weg.“ Der Rand gemeldet im Dezember, dass ein anderer Benutzer in einem Beitrag in einer Metaverse-Facebook-Gruppe schrieb: „Ich wurde letzte Nacht nicht nur begrapscht, sondern es gab auch andere Leute dort, die dieses Verhalten unterstützten, wodurch ich mich auf der Plaza isoliert fühlte.“ Diese Woche eine Frau erzählt „verbal und sexuell belästigt worden zu sein – 3-4 männliche Avatare, im Wesentlichen mit Männerstimmen, aber mein Avatar wurde praktisch von einer Gruppe vergewaltigt und Fotos gemacht“, in der Metaverse, und das alles „innerhalb von 60 Sekunden nach dem Beitritt“.

Ein Meta-Sprecher sagte in einer Erklärung gegenüber Isebel, dass Meta mit „externen Experten, darunter a Meta Sicherheitsbeirat“, um „Feedback von unserer Community zu sammeln, um Richtlinien, Tools und Ressourcen zu entwickeln, um die Sicherheit der Menschen zu gewährleisten.“

Tools zur Inhaltsmoderation und Benutzersicherheit wie die von Meta ergriffenen Maßnahmen oder die Replika-Funktionen, die Benutzer vor Selbstverletzung schützen und missbräuchliche Sprache abschrecken, sind wichtig, sagt Gambelin. Aber sie können nur so viel dazu beitragen, wie Avatare und Chatbots auf einem Bildschirm den Benutzern das Gefühl der Verantwortlichkeit gegenüber anderen in digitalen Räumen nehmen. „Es fühlt sich an, als wäre es wirklich dem überlassen, was Sie tun möchten“, sagte sie, „und was viele männliche Benutzer zu tun scheinen, ist Missbrauch.“

Mit der Entwicklung von immer mehr Apps und Diensten wie Replika finden immer mehr unserer virtuellen Interaktionen nicht mehr mit anderen Menschen statt. Benutzer wie Hazel Miller wenden sich an Replika, um sinnvolle, sexuell erfüllende Beziehungen zu simulieren, und ihre Interaktionen bieten einen Einblick in ein gesundes Ventil für den sexuellen Ausdruck, das in einer zunehmend digitalisierten Welt wahrscheinlich noch beliebter werden wird. Andere nutzen die Tatsache aus, dass ihre Bots technisch nicht beschädigt werden können. Letztendlich können und sollten wir Missbrauch von Sexting mit Bots unterscheiden, genauso wie wir Missbrauch von einvernehmlicher sexueller Behandlung von Menschen unterscheiden.

je-leben-gesundheit