Eine unabhängige Überprüfung beliebter KI-Tools hat ergeben, dass viele – darunter My AI, DALLE und Stable Diffusion von Snapchat – für Kinder möglicherweise nicht sicher sind. Die neuen Bewertungen stammen von Gesunder Menschenverstand-Medieneine gemeinnützige Interessenvertretung für Familien, die vor allem für ihre Bereitstellung bekannt ist Medienbewertungen für Eltern die die Apps, Spiele, Podcasts, Fernsehsendungen, Filme und Bücher bewerten möchten, die ihre Kinder konsumieren. Anfang des Jahres gab das Unternehmen bekannt, dass es bald Bewertungen für KI-Produkte zu seinen Ressourcen für Familien hinzufügen werde. Heute, Diese Bewertungen sind online gegangendas sogenannte „Nährwertkennzeichnungen“ für KI-Produkte wie Chatbots, Bildgeneratoren und mehr anbietet.
Das Unternehmen kündigte erstmals im Juli an, dass es den Aufbau eines Bewertungssystems zur Bewertung von KI-Produkten in verschiedenen Dimensionen anstrebt, einschließlich der Frage, ob die Technologie verantwortungsvolle KI-Praktiken nutzt oder nicht, sowie ihrer Eignung für Kinder. Auslöser des Umzugs war eine Elternbefragung, um deren Interesse an einem solchen Angebot zu ermitteln. 82 % der Eltern sagten, sie wünschten sich Hilfe bei der Beurteilung, ob neue KI-Produkte wie ChatGPT für ihre Kinder sicher sind oder nicht. Nur 40 % gaben an, dass sie verlässliche Ressourcen kennen, die ihnen bei der Entscheidungsfindung helfen könnten.
Das führte zum heutigen Start von Common Sense Media erste KI-Produktbewertungen. Die bewerteten Produkte sind bewertungsübergreifend mehrere KI-Prinzipien, Dazu gehören Vertrauen, Sicherheit von Kindern, Privatsphäre, Transparenz, Rechenschaftspflicht, Lernen, Fairness, soziale Verbindungen und Vorteile für Menschen und Gesellschaft.
Die Organisation bewertete zunächst 10 beliebte Apps auf einer 5-Punkte-Skala, darunter solche, die zum Lernen verwendet werden, KI-Chatbots wie Bard und ChatGPT sowie generative KI-Produkte wie My AI und DALL-E von Snap und andere. Wenig überraschend schnitt die letztere Kategorie am schlechtesten ab.
„KI ist nicht immer richtig und auch nicht werteneutral“, bemerkte Tracy Pizzo-Frey, Senior Advisor für KI bei Common Sense Media. in einer Zusammenfassung der Bewertungen. „Jede generative KI beherbergt aufgrund der Tatsache, dass die Modelle auf riesigen Mengen an Internetdaten trainiert werden, eine Vielzahl kultureller, rassischer, sozioökonomischer, historischer und geschlechtsspezifischer Vorurteile – und genau das haben wir in unseren Auswertungen festgestellt.“ “ Sie sagte. „Wir hoffen, dass unsere Bewertungen mehr Entwickler dazu ermutigen werden, Schutzmaßnahmen zu entwickeln, die die Verbreitung von Fehlinformationen eindämmen und ihren Teil dazu beitragen, zukünftige Generationen vor unbeabsichtigten Auswirkungen zu schützen.“
In den eigenen Tests von Tech stellte die Reporterin Amanda Silberling fest, dass die generativen KI-Funktionen „My AI“ von Snapchat im Allgemeinen eher seltsam und zufällig als aktiv schädlich sind, aber Common Sense Media gab dem KI-Chatbot eine 2-Sterne-Bewertung, und stellte fest, dass es einige Antworten gab, die unfaire Vorurteile in Bezug auf Altersdiskriminierung, Sexismus und kulturelle Stereotypen verstärkten. Manchmal werden auch einige unangemessene Antworten und Ungenauigkeiten geboten. Es wurden auch persönliche Benutzerdaten gespeichert, was nach Angaben der Organisation Bedenken hinsichtlich des Datenschutzes aufwirft.
Snap lehnte die schlechte Bewertung ab und wies darauf hin, dass „My AI“ ein optionales Tool sei und dass Snapchat deutlich mache, dass es sich um einen Chatbot handele, und Benutzer über dessen Einschränkungen hinweise. „My AI“ ist auch in sein Family Center integriert, sodass Eltern sehen können, ob und wann Teenager mit ihr chatten, sagte das Unternehmen gegenüber Tech, fügte jedoch hinzu, dass das Unternehmen das Feedback, das die Bewertung lieferte, wertschätzte, während es sein Produkt weiter verbessert.
Andere generative KI-Modelle wie DALL-E Und Stabile Verbreitung hatten ähnliche Risiken, darunter unter anderem eine Tendenz zur Objektivierung und Sexualisierung von Frauen und Mädchen und eine Verstärkung von Geschlechterstereotypen. (Anfragen nach Kommentaren wurden nicht sofort beantwortet.)
Wie jedes neue Medium im Internet sind es auch diese generativen KI-Modelle zur Herstellung pornografischer Materialien verwendet werden. Websites wie Umarmendes Gesicht und Civitai erfreuen sich nicht nur als Hilfsmittel zur Suche nach neuen Image-Modellen großer Beliebtheit, sondern machen es auch einfacher, verschiedene Modelle zu finden, die miteinander kombiniert werden können, um Pornos mit dem Abbild einer Person (z. B. eines Promis) zu machen. Dieses Problem spitzte sich diese Woche zu, als 404Medien rief die Fähigkeiten von Civitai hervor, aber die Debatte über die verantwortliche Partei – die Community-Aggregatoren oder die KI-Modelle selbst – ging weiter auf Seiten wie Hacker News in der Folgezeit.
Im Mittelfeld der Bewertungen von Common Sense lagen KI-Chatbots wie der von Google Barde (das erst gestern offiziell für Jugendliche geöffnet wurde), ChatGPTUnd Kleinkind-KI. Die Organisation warnte, dass auch bei diesen Bots Voreingenommenheit auftreten könne, insbesondere bei Benutzern mit „unterschiedlichen Hintergründen und Dialekten“. Sie könnten auch ungenaue Informationen – oder KI-Halluzinationen – produzieren und Stereotypen verstärken. Common Sense warnte davor, dass die falschen Informationen, die die KI produziert, die Weltanschauungen der Benutzer beeinflussen und es noch schwieriger machen könnten, Fakten von Fiktionen zu trennen.
Die einzigen KI-Produkte, die gute Bewertungen erhielten, waren Ellos KI-Leselehrer und Buchlieferdienst, Khanmingo (von der Khan Academy) und Kyron Learnings KI-Tutor – alle drei sind KI-Produkte, die für Bildungszwecke entwickelt wurden. Sie sind weniger bekannt als andere. (Und, wie einige Kinder vielleicht argumentieren, weniger Spaß). Da die Unternehmen sie dennoch speziell für die Nutzung durch Kinder entwickelt haben, neigten sie dazu, verantwortungsvolle KI-Praktiken zu verwenden und konzentrierten sich auf Fairness, vielfältige Darstellung und kinderfreundliche Designüberlegungen. Sie waren auch transparenter in Bezug auf ihre Datenschutzrichtlinien.
Common Sense Media sagt, dass es weiterhin fortlaufend Bewertungen und Rezensionen neuer KI-Produkte veröffentlichen wird, was hoffentlich dazu beitragen wird, nicht nur Eltern und Familien, sondern auch Gesetzgeber und Aufsichtsbehörden zu informieren.
„Verbraucher müssen Zugang zu einer klaren Nährwertkennzeichnung für KI-Produkte haben, die die Sicherheit und Privatsphäre aller Amerikaner – insbesondere aber von Kindern und Jugendlichen – gefährden könnte“, sagte James P. Steyer, Gründer und CEO von Common Sense Media, in einer Erklärung. „Indem Gesetzgeber, Pädagogen und die breite Öffentlichkeit erfahren, was das Produkt ist, wie es funktioniert, welche ethischen Risiken, Einschränkungen und Missbrauch es mit sich bringt, können sie verstehen, wie verantwortungsvolle KI aussieht.“ Wenn es der Regierung nicht gelingt, KI „kindersicher“ zu machen, werden Technologieunternehmen diese unregulierte, freizügige Atmosphäre auf Kosten unseres Datenschutzes, unseres Wohlergehens und unserer Demokratie insgesamt ausnutzen“, fügte er hinzu.