Mitarbeiter warnten Google vor Bard AI – Medien – World

Mitarbeiter warnten Google vor Bard AI – Medien – World
Tausende von Google-Mitarbeitern versuchten, das Unternehmen zu warnen, dass sein KI-Chatbot Bard nicht nur ein „pathologischer Lügner“, sondern möglicherweise ein Mörder sei und Ratschläge gebe, die zum Tod führen könnten, sagten 18 aktuelle und ehemalige Google-Mitarbeiter am Mittwoch gegenüber Bloomberg. Das Unternehmen, sagten sie, hörte nicht zu. Ein Mitarbeiter sagte der Verkaufsstelle, sie hätten Google mitgeteilt, dass Bards Tipps zum Tauchen „wahrscheinlich zu schweren Verletzungen oder zum Tod führen würden“, während ein anderer sagte, dass seine Beschreibung, wie man ein Flugzeug landet, mit ziemlicher Sicherheit resultieren würde bei einem Absturz.
Ein dritter Mitarbeiter beschrieb Bard in einer Notiz, die von 7.000 Google-Nutzern gesehen wurde, als „schlimmer als nutzlos“ und bat das Unternehmen, es nicht zu starten. Andere bezeichneten die KI als „unwürdig“. Ethikspezialisten wurden angewiesen, aus dem Weg zu gehen, als das Unternehmen Bard auf den Markt brachte, sagten die Quellen gegenüber Bloomberg. Meredith Whittaker, eine ehemalige Managerin des Unternehmens, sagte, „KI-Ethik ist in den Hintergrund getreten“ gegenüber Profit und Wachstum, und zwei weitere Mitarbeiter sagten, Ethikprüfungen seien fast vollständig optional. Produkte, die zuvor eine 99-%-Schwelle für Metriken wie „Fairness“ überwinden mussten, mussten jetzt nur noch bis zu „80, 85 % oder so“ messen, um auf den Markt zu kommen, sagte Jen Gennai, Leiterin der KI-Governance, Berichten zufolge gegenüber Mitarbeitern. Zwei Whistleblower enthüllten Anfang dieses Monats hatten sie versucht, die Freilassung von Bard zu blockieren, indem sie die KI warnten, dass sie zu „ungenauen und gefährlichen Aussagen“ neigten, nur um ihre Bedenken zerstreuen zu lassen, als Gennai die „Produkteinführung“ als „Experiment“ umformulierte. Eingeführt als Konkurrent von OpenAIs Blockbuster ChatGPT im vergangenen Monat, Bard, sollte die Speerspitze bei Googles Transformation seines Suchgeschäfts sein. Als ChatGPT auf den Markt kam und Google noch keine eigene generative KI so in seine Produkte integriert hatte, dass Kunden sie tatsächlich nutzen konnten, geriet das Unternehmen angeblich in Panik, gab ab Dezember einen „Code Red“ heraus und ging Risiken ein, sagten Mitarbeiter gegenüber Bloomberg.Google hat bestritten, dass er jemals etwas über die Ethik gestellt hat. „Wir investieren weiterhin in die Teams, die daran arbeiten, unsere KI-Prinzipien auf unsere Technologie anzuwenden“, sagte Sprecher Brian Gabriel gegenüber Bloomberg 20 KI-betriebene Produkte in diesem Jahr. In der Zwischenzeit sind die im KI-Ethikteam verbleibenden Personen laut Bloomberg „entmachtet und demoralisiert“.

:

rrt-allgemeines