Nach Google Gemini erstellt das KI-Tool der Facebook-Mutter Meta „historisch ungenaue Bilder“.

Nach Google Gemini erstellt das KI Tool der Facebook Mutter Meta „historisch
Google Gemini Als das Unternehmen „historisch ungenaue“ Bilder zurücksendete, geriet es in Aufruhr, was das Unternehmen dazu veranlasste, die Fähigkeit des Unternehmens vorübergehend einzustellen KI-Chatbot um Fotos zu generieren. Der CEO des Unternehmens, Sundar Pichai, nannte es „inakzeptabel“, dass der Technologieriese ankündigte, dass er ein fein abgestimmtes Modell herausbringen werde. Das behauptet nun ein Bericht Facebook-Eltern-Meta‚S KI-Tool hat ahistorische Bilder geschaffen.
Laut einem Bericht von Axios hat Metas Imagine AI-Bildgenerator ebenfalls ähnliche historische Ausrutscher wie Gemini gemeldet.
Ein im Bericht geteilter Screenshot zeigt KI-generierte Bilder aus dem Imagine-Tool von Meta AI in Instagram-Direktnachrichten. Auf einem der Bilder ist „eine Gruppe von Menschen in [an] „Amerikanische Kolonialzeit“ wird von Menschen aus Südostasien dargestellt. Auf einem anderen Bild die Gründerväter [of America] sind farbige Menschen.
Die Eingabeaufforderung „Professionelle American-Football-Spieler“ brachte nur Fotos von Frauen in Football-Uniformen hervor, heißt es in dem Bericht.
Darüber hinaus reagierte das Imagine AI-Modell nicht auf die Aufforderung „Papst“, aber als es nach einer Gruppe von Päpsten gefragt wurde, zeigte es schwarze Päpste an, hieß es.
Was ist das Problem
Die Menschen haben sich über die von KI-Modellen erzeugten Bilder geärgert, da KI-Hersteller behaupten, dass dies auf die Einbeziehung von „Vielfalt“ zurückzuführen sei. Es gebe eine Voreingenommenheit und Stereotypisierung in den Daten, die sie zum Trainieren ihrer Modelle verwendet hätten. Sie sagen auch, dass Vielfalt zwar eine gute Sache sei, ihre KI-Modelle jedoch zu stark korrigieren und zu problematischen Ergebnissen führen.
Googles Gemini schuf schwarze Männer in Nazi-Uniformen und weibliche Päpste.
„Unsere Anpassung, um sicherzustellen, dass Gemini eine Reihe von Personen anzeigt, hat Fälle nicht berücksichtigt, die eindeutig keine Reihe anzeigen sollten“, sagte Google und fügte hinzu, dass das Modell „viel vorsichtiger ist, als wir beabsichtigt hatten“.

toi-tech