Snapchat fügt neue Sicherheitsvorkehrungen rund um seinen KI-Chatbot hinzu

Snapchat fuegt neue Sicherheitsvorkehrungen rund um seinen KI Chatbot hinzu

Snapchat bringt neue Tools auf den Markt, darunter einen altersgerechten Filter und Erkenntnisse für Eltern, um das KI-Chatbot-Erlebnis sicherer zu machen.

Tage nachdem Snapchat seinen GPT-basierten Chatbot für Snapchat+-Abonnenten gestartet hatte, hob ein Bericht der Washington Post hervor, dass der Bot geantwortet hatte eine unsichere und unangemessene Weise.

Der soziale Riese sagte, dass er nach dem Start erfahren habe, dass Leute versuchten, „den Chatbot dazu zu bringen, Antworten zu geben, die nicht unseren Richtlinien entsprechen“. Also bringt Snapchat ein paar Tools auf den Markt, um die KI-Antworten in Schach zu halten.

Snap hat einen neuen Altersfilter eingebaut, der der KI das Geburtsdatum der Nutzer mitteilt und sie mit altersgerechten Antworten versorgt. Das Unternehmen sagte, dass der Chatbot bei Gesprächen mit Benutzern „konsequent ihr Alter berücksichtigen“ werde.

Snap plant außerdem, Eltern oder Erziehungsberechtigten in den kommenden Wochen mehr Einblicke in die Interaktionen von Kindern mit dem Bot im Family Center zu geben, das im vergangenen August gestartet wurde. Die neue Funktion wird teilen, wenn ihre Teenager mit der KI und der Häufigkeit dieser Interaktionen kommunizieren. Sowohl der Erziehungsberechtigte als auch die Teenager müssen sich für die Nutzung des Familiencenters entscheiden, um diese Kindersicherungsfunktionen nutzen zu können.

In ein Blogbeitrag, erklärte Snap, dass der My AI-Chatbot kein „echter Freund“ sei und zur Verbesserung der Antworten den Gesprächsverlauf verwende. Benutzer werden auch über die Datenspeicherung benachrichtigt, wenn sie den Chat mit dem Bot starten.

Das Unternehmen sagte, dass der Bot nur 0,01 % der Antworten in einer „nicht konformen“ Sprache gegeben habe. Snap zählt jede Antwort, die Verweise auf Gewalt, sexuell explizite Begriffe, illegalen Drogenkonsum, sexuellen Missbrauch von Kindern, Mobbing, Hassreden, abfällige oder voreingenommene Äußerungen, Rassismus, Frauenfeindlichkeit oder die Ausgrenzung unterrepräsentierter Gruppen enthält, als „nicht konform“.

Das soziale Netzwerk erwähnte, dass diese unangemessenen Antworten in den meisten Fällen das Ergebnis des Nachplapperns seien, was auch immer die Benutzer sagten. Es wurde auch darauf hingewiesen, dass das Unternehmen den Zugriff auf den KI-Bot vorübergehend für einen Benutzer sperren wird, der den Dienst missbraucht.

„Wir werden diese Erkenntnisse weiterhin nutzen, um My AI zu verbessern. Diese Daten werden uns auch dabei helfen, ein neues System bereitzustellen, um den Missbrauch von „Meine KI“ einzuschränken. Wir fügen unserem bestehenden Toolset die Moderationstechnologie von OpenAI hinzu, die es uns ermöglichen wird, die Schwere potenziell schädlicher Inhalte einzuschätzen und den Zugriff von Snapchattern auf My AI vorübergehend einzuschränken, wenn sie den Dienst missbrauchen“, sagte Snap.

Angesichts der schnellen Verbreitung von KI-gestützten Tools sind viele Menschen um ihre Sicherheit und Privatsphäre besorgt . Letzte Woche rief eine Ethikgruppe an das Center for Artificial Intelligence and Digital Policy schrieb an die FTCund forderte die Agentur auf, die Einführung der GPT-4-Technologie von OpenAI zu stoppen, und beschuldigte die Technologie des Emporkömmlings, „voreingenommen, irreführend und ein Risiko für die Privatsphäre und die öffentliche Sicherheit“ zu sein.

Letzten Monat auch Senator Michael Bennet schrieb einen Brief an OpenAI, Meta, Google, Microsoft und Snap, in denen Bedenken hinsichtlich der Sicherheit von generativen KI-Tools geäußert werden, die von Teenagern verwendet werden.

Es ist inzwischen offensichtlich, dass diese neuen Chatbot-Modelle anfällig für schädliche Eingaben sind und wiederum unangemessene Ausgaben liefern. Während Technologieunternehmen eine schnelle Einführung dieser Tools wünschen, müssen sie sicherstellen, dass genügend Leitplanken um sie herum vorhanden sind, die verhindern, dass die Chatbots abtrünnig werden.

tch-1-tech