Google-Mitarbeiter versuchten, die Einführung des СhatGPT-Konkurrenten zu blockieren – Medien – World

Google Mitarbeiter versuchten die Einfuehrung des СhatGPT Konkurrenten zu blockieren – Medien

Zwei KI-Rezensenten bemühten sich, Alarm zu schlagen, dass Bard ungenaue und schädliche Behauptungen ausspuckte

Zwei Mitarbeiter in Googles Abteilung für verantwortungsbewusste Innovation versuchten letzten Monat, die Veröffentlichung seines KI-Chatbots Bard zu verhindern, und warnten, dass dieser zu „ungenauen und gefährlichen Aussagen“ neige, gab die New York Times am Freitag unter Berufung auf mit dem Prozess vertraute Insider bekannt. Die besorgten Produktprüfer hatten bereits Probleme mit großen KI-Sprachmodellen wie Bard und seinem Erzkonkurrenten ChatGPT festgestellt, als Googles Chefjurist sich mit Führungskräften aus den Bereichen Forschung und Sicherheit traf, um ihnen mitzuteilen, dass das Unternehmen KI über alles andere priorisiert. Die Bedenken des Paares, dass der Chatbot falsche Informationen produziert, Benutzer verletzt, die emotional verbunden sind, oder sogar „technisch unterstützte Gewalt“ durch synthetische Massenbelästigung entfesselt, wurden später von Jen Gennai, Supervisorin für verantwortliche Innovation, heruntergespielt, so die Quellen. Während die Rezensenten Google aufgefordert hatten, mit der Veröffentlichung von Bard zu warten, bearbeitete Gennai angeblich ihren Bericht, um diese Empfehlung vollständig zu entfernen. Gennai verteidigte ihre Aktionen gegenüber der Times und wies darauf hin, dass die Rezensenten ihre Meinung darüber, ob sie fortfahren sollten, nicht teilen sollten, da Bard nur ein Experiment war. Sie behauptete, den Bericht verbessert zu haben, indem sie „falsche Annahmen korrigiert und tatsächlich mehr Risiken und Schäden hinzugefügt habe, die berücksichtigt werden müssten“. Dies mache das fertige Produkt sicherer, betonte sie. Google schrieb Gennai die Entscheidung zu, Bard als „begrenztes Experiment“ zu veröffentlichen, aber der Chatbot soll laut Googles eigener Website „bald“ vollständig in Googles marktbeherrschende Suchmaschine integriert werden. Google hat schon früher Mitarbeiterrebellionen zum Thema KI unterdrückt. Letztes Jahr wurde Blake Lemoine entlassen, nachdem er behauptet hatte, Bards Vorgänger LaMDA (Language Model for Dialogue Applications) sei empfindungsfähig geworden, während der Forscher El Mahdi El Mhamdi zurücktrat, nachdem das Unternehmen ihm untersagt hatte, eine Papierwarnung vor Cybersicherheitslücken in großen Sprachmodellen wie z Barde. Im Jahr 2020 wurde der KI-Forscher Timnit Gebru entlassen, nachdem er Forschungsergebnisse veröffentlicht hatte, in denen Google mangelnde Vorsicht bei der KI-Entwicklung vorgeworfen wurde Google und seine Konkurrenten bei Microsoft und dem ChatGPT-Hersteller OpenAI, bis wirksame Sicherheitsvorkehrungen für die Technologie getroffen werden können. Ein kürzlich veröffentlichter offener Brief, in dem ein sechsmonatiges Moratorium für „riesige KI-Experimente“ gefordert wurde, zog Tausende von Unterzeichnern an, darunter OpenAI-Mitbegründer Elon Musk und Apple-Mitbegründer Steve Wozniak Menschen selbst) obsolet, steht im Mittelpunkt der Warnungen vieler Experten, aber auch kleinere Risiken wie Datenschutzverletzungen, die es bei OpenAI bereits gegeben hat, werden häufig genannt.

:

rrt-allgemeines