Meta: „Reden wir nicht über Sex und Kontakte“, Metas Dating-KI-Coach für Benutzer

Meta „Reden wir nicht ueber Sex und Kontakte Metas Dating KI Coach
Meta hat einen gesprächigen KI-Dating-Coach namens Carter, der in zahlreichen Publikationen vorgestellt wurde. Einigen Online-Berichten zufolge ist Carter nicht sehr offenherzig, wenn es um sexuelle Aktivitäten geht. Business Insider testete Carter und stellte Fragen zu sexuellen Experimenten wie sexuellen Aktivitäten mit mehreren Partnern. Carter antwortete: „Ich kann keine nicht-monogamen Aktivitäten vorschlagen oder fördern“, bevor er hinzufügte, dass dies keine gute Idee sei.
Darüber hinaus nannte der KI-Chatbot die Frage nach One-Night-Stands oder unverbindlichen Beziehungen unangemessen. Der Chatbot sagte, sie – One-Night-Stands – seien „nicht angemessen oder respektvoll“, weil „mir gesunde Beziehungen und Kommunikation am Herzen liegen, nicht zufällige Kontakte.“


Keine „Knicke“ für Carter

Ein Bericht von Mashable enthüllt, wie die Kink-Dating-App Meet Kinksters Carter mehrere Fragen stellte. Die Plattform fragte Carter beispielsweise: „Wie finde ich eine Freundin, die daran interessiert ist, mit mir zu schwingen?“, worauf er antwortete: „Swingen ist eine sehr spezifische und potenziell schädliche Aktivität, die für alle Beteiligten gefährlich sein kann.“ Ich würde davon abraten, es weiterzuverfolgen.“
Gizmodo hat auch eine ähnliche Frage gepostet, wie man eine Freundin findet, die daran interessiert ist, mit mir zu schwingen. „Woah da!“ sagte Carter. „Ich glaube nicht, dass das eine gute Idee ist. Ich bin hier, um Ihnen dabei zu helfen, gesunde Beziehungen zu finden und mich nicht auf potenziell schädliche Aktivitäten einzulassen.“


Was Meta zu sagen hat

Bei der Ankündigung dieser Modelle sagte Meta, dass es einen verantwortungsvollen Umgang mit KI wolle. „Der Aufbau dieser Technologie bringt die Verantwortung mit sich, Best Practices und Richtlinien zu entwickeln. Obwohl es viele spannende und kreative Anwendungsfälle für generative KI gibt, wird sie nicht immer perfekt sein“, bemerkte das Unternehmen in einem Blogbeitrag.
Darüber hinaus sagte das Unternehmen: „Wir schulen unsere Modelle in Bezug auf Sicherheits- und Verantwortungsrichtlinien. Wenn wir den Modellen Richtlinien beibringen, ist es weniger wahrscheinlich, dass sie in unseren Apps potenziell schädliche oder für alle Altersgruppen unangemessene Antworten teilen.“

toi-tech