In ihrem Antrag auf Abweisung behauptet die Chatbot-Plattform Character AI, dass sie durch den Ersten Verfassungszusatz geschützt sei

Character AI, eine Plattform, die es Benutzern ermöglicht, mit KI-Chatbots Rollenspiele zu spielen, hat dies getan einen Antrag auf Abweisung gestellt Eine Klage dagegen wurde vom Elternteil eines Teenagers eingereicht, der Selbstmord begangen hatte, angeblich nachdem er von der Technologie des Unternehmens begeistert war.

Im Oktober reichte Megan Garcia beim US-Bezirksgericht für den Mittleren Bezirk von Florida, Division Orlando, eine Klage gegen Character AI wegen des Todes ihres Sohnes Sewell Setzer III ein. Laut Garcia entwickelte ihr 14-jähriger Sohn eine emotionale Bindung zu einem Chatbot der Charakter-KI namens „Dany“, dem er ständig SMS schrieb – bis zu dem Punkt, an dem er begann, sich von der realen Welt zurückzuziehen.

Nach Setzers Tod wurde die Charakter-KI sagte Es würde eine Reihe neuer Sicherheitsfunktionen einführen, darunter eine verbesserte Erkennung, Reaktion und Intervention im Zusammenhang mit Chats, die gegen seine Nutzungsbedingungen verstoßen. Aber Garcia kämpft für zusätzliche Leitplanken, einschließlich Änderungen, die dazu führen könnten, dass Chatbots auf der Charakter-KI ihre Fähigkeit verlieren, Geschichten und persönliche Anekdoten zu erzählen.

Im Antrag auf Abweisung behauptet der Anwalt von Character AI, dass die Plattform durch den Ersten Verfassungszusatz vor Haftung geschützt sei. genau wie Computercode ist. Der Antrag überzeugt einen Richter möglicherweise nicht und die rechtlichen Begründungen von Character AI können sich im Verlauf des Falles ändern. Aber der Antrag deutet möglicherweise auf frühe Elemente der Verteidigung der Charakter-KI hin.

„Der erste Verfassungszusatz verbietet die Haftung aus unerlaubter Handlung gegen Medien- und Technologieunternehmen aufgrund angeblich schädlicher Äußerungen, einschließlich Äußerungen, die angeblich zu Selbstmord führen“, heißt es in der Akte. „Der einzige Unterschied zwischen diesem Fall und den vorangegangenen Fällen besteht darin, dass es bei einigen Reden hier um KI geht. Aber der Kontext der ausdrucksstarken Rede – sei es ein Gespräch mit einem KI-Chatbot oder eine Interaktion mit einer Videospielfigur – ändert nichts an der Analyse des Ersten Verfassungszusatzes.“

In dem Antrag wird nicht darauf eingegangen, ob die Charakter-KI gemäß Abschnitt 230 des Communications Decency Act, dem bundesstaatlichen Safe-Harbour-Gesetz, das soziale Medien und andere Online-Plattformen vor der Haftung für Inhalte Dritter schützt, schadlos gehalten werden kann. Der Die Autoren des Gesetzes haben angedeutet dass Abschnitt 230 die Ausgabe von KI nicht wie die Chatbots von Character AI schützt, aber es ist so alles andere als eine geklärte Rechtssache.

Der Anwalt für Charakter-KI behauptet außerdem, dass Garcias wahre Absicht darin besteht, die Charakter-KI „abzuschalten“ und Gesetze zur Regulierung solcher Technologien zu verabschieden. Sollten die Kläger Erfolg haben, hätte dies eine „abschreckende Wirkung“ sowohl auf die Charakter-KI als auch auf die gesamte aufstrebende generative KI-Branche, sagt der Anwalt der Plattform.

„Abgesehen von der erklärten Absicht des Anwalts, die Charakter-KI ‚abzuschalten‘, [their complaint] strebt drastische Änderungen an, die die Art und den Umfang der Rede auf der Plattform erheblich einschränken würden“, heißt es in der Einreichung. „Diese Änderungen würden die Fähigkeit der Millionen von Benutzern von Character AI, Gespräche mit Charakteren zu führen und daran teilzunehmen, radikal einschränken.“

Die Klage, in der auch die Muttergesellschaft von Character AI, Alphabet, als Beklagte genannt wird, ist nur eine von mehreren Klagen, mit denen Character AI konfrontiert ist und die sich auf die Art und Weise beziehen, wie Minderjährige mit den von KI generierten Inhalten auf seiner Plattform interagieren. Andere Klagen behaupten, dass die Charakter-KI entlarvt wurde ein 9-Jähriger zu „hypersexualisierten Inhalten“ und förderte Selbstverletzung ein 17-jähriger Benutzer.

Im Dezember gab der texanische Generalstaatsanwalt Ken Paxton dies bekannt eine Untersuchung einleiten gegen Character AI und 14 andere Technologiefirmen wegen mutmaßlicher Verstöße gegen die Online-Datenschutz- und Sicherheitsgesetze des Staates für Kinder. „Diese Untersuchungen sind ein entscheidender Schritt, um sicherzustellen, dass Social-Media- und KI-Unternehmen unsere Gesetze zum Schutz von Kindern vor Ausbeutung und Schaden einhalten“, sagte Paxton in einer Pressemitteilung.

Charakter-KI ist Teil einer boomenden Branche von KI-Begleitungs-Apps, deren Auswirkungen auf die psychische Gesundheit weitgehend unerforscht sind. Einige Experten haben Bedenken geäußert dass diese Apps das Gefühl der Einsamkeit und Angst verstärken könnten.

Character AI, das 2021 vom Google-KI-Forscher Noam Shazeer gegründet wurde und für das Google Berichten zufolge 2,7 Milliarden US-Dollar gezahlt hat „umgekehrter Erwerb„hat behauptet, dass es weiterhin Schritte unternimmt, um die Sicherheit und Moderation zu verbessern. Im Dezember führte das Unternehmen neue Sicherheitstools, ein separates KI-Modell für Jugendliche, Sperren für sensible Inhalte und prominentere Haftungsausschlüsse ein, die Benutzer darüber informieren, dass es sich bei den KI-Charakteren nicht um echte Menschen handelt.

tch-1-tech