Europäische Verbraucherschutzbehörden aufgefordert, ChatGPT und andere zu untersuchen

Die Lobbygruppe sagte, dass von den Chatbots produzierte Inhalte, die wahr und zuverlässig erscheinen, aber oft sachlich falsch sind, die Verbraucher irreführen und auch zu irreführender Werbung führen können

Die Europäische Verbraucherorganisation (BEUC) hat sich dem Chor der Besorgnis über ChatGPT und andere Chatbots mit künstlicher Intelligenz angeschlossen und die EU-Verbraucherschutzbehörden aufgefordert, die Technologie und den potenziellen Schaden für Einzelpersonen zu untersuchen. Die wachsende Popularität des von Microsoft unterstützten ChatGPT von Open AI, das Menschen nachahmen und Texte und Bilder basierend auf Eingabeaufforderungen erstellen kann, hat andere wie Google von Alphabet, Amazons Cloud-Sparte AWS und Meta Platforms dazu veranlasst, ähnliche Tools anzukündigen.

BEUC, die Dachorganisation von 46 Verbraucherorganisationen aus 32 Ländern, hat ihre Besorgnis Anfang dieses Monats in separaten Briefen an das Netzwerk der Verbraucherschutzbehörden (CSN-Netzwerk) und an das Netzwerk der Verbraucherschutzbehörden (CPC-Netzwerk) gerichtet. Die Lobbygruppe sagte, dass von den Chatbots produzierte Inhalte, die wahr und zuverlässig erscheinen, aber oft sachlich falsch sind, die Verbraucher irreführen und auch zu irreführender Werbung führen können. Es sagte, jüngere Verbraucher und Kinder seien anfälliger für solche Risiken. „BEUC fordert Sie daher auf, die Risiken, die diese KI-Systeme für Verbraucher darstellen, dringend zu untersuchen, ihre Präsenz auf den Verbrauchermärkten zu ermitteln und zu prüfen, welche Abhilfemaßnahmen ergriffen werden müssen, um Verbraucherschäden zu vermeiden“, so Ursula Pachl, stellvertretende Generaldirektorin von BEUC schrieb in dem Brief an das CPC-Netzwerk und die Europäische Kommission. Die Gruppe forderte auch das Consumer Safety Network auf, einen Informationsaustausch und eine Untersuchung der Sicherheitsrisiken dieser Produkte einzuleiten.Musk, andere schreiben offenen Brief
Im vergangenen Monat forderten Elon Musk und eine Gruppe von Experten für künstliche Intelligenz und Führungskräfte aus der Branche eine sechsmonatige Pause bei der Ausbildung leistungsfähigerer Systeme OpenAI’s neu eingeführtes Modell GPT-4, sagten sie in einem offenen Brief und verwiesen auf potenzielle Risiken für die Gesellschaft und die Menschheit.Der Brief, der vom gemeinnützigen Future of Life Institute herausgegeben und von mehr als 1.000 Personen unterzeichnet wurde, darunter Musk, Emad Mostaque, CEO von Stability AI, Forscher des zu Alphabet gehörenden DeepMind sowie die KI-Schwergewichte Yoshua Bengio und Stuart Russell, forderten eine Pause bei der fortgeschrittenen KI-Entwicklung, bis gemeinsame Sicherheitsprotokolle für solche Designs entwickelt, implementiert und von unabhängigen Experten geprüft wurden.„Leistungsstarke KI-Systeme sollten erst entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“, heißt es in dem Schreiben.Der Brief beschrieb auch mögliche Risiken für Gesellschaft und Zivilisation durch KI-Systeme im Wettbewerb mit Menschen in Form von wirtschaftlichen und politischen Störungen und forderte die Entwickler auf, mit politischen Entscheidungsträgern in Bezug auf Governance und Regulierungsbehörden zusammenzuarbeiten.


gn-tech