Google-Chef warnt vor potenziellen KI-Gefahren — World

Google Chef warnt vor potenziellen KI Gefahren — World
Künstliche Intelligenz (KI) wird sich bald auf „jedes Produkt jedes Unternehmens“ auswirken, sagte Sundar Pichai, CEO von Google und Alphabet, am Sonntag und warnte vor den Gefahren, die die Technologie für Beschäftigungssektoren und die Verbreitung von Fehlinformationen darstellt. „Wir müssen uns anpassen Gesellschaft dafür“, sagte Pichai dem amerikanischen Fernsehsender CBS. Er fügte hinzu, dass das Beschäftigungswachstum und die Nachhaltigkeit für Branchen gestört werden, die sich auf das verlassen, was er als „Wissensarbeiter“ bezeichnet, wie Schriftsteller, Buchhalter – und sogar die Ingenieure, die die Software entwickelt haben. Im vergangenen Monat. Dies folgte auf das Online-Debüt von ChatGPT von OpenAI im Jahr 2022, das unter anderem für seine Fähigkeit, wissenschaftliche Arbeiten zu verfassen und komplizierte und detaillierte Prosapassagen mit menschenähnlicher Sprache zu schreiben, erhebliche Aufmerksamkeit erhielt. KI-Chatbots – und insbesondere ChatGPT – hatten dies jedoch ihre Kritiker. Es wurde Anfang dieses Monats in Italien wegen potenzieller Datenschutzbedenken verboten, während die Technologiegiganten Elon Musk und Steve Wozniak zusammen mit Dutzenden von Akademikern forderten, KI-Experimente zu unterbrechen. Die Technologie sollte „von unabhängigen externen Experten streng geprüft und überwacht werden“, heißt es in einem von Musk und Wozniak gemeinsam unterzeichneten offenen Brief. Auch Pichai warnte vor den potenziellen Risiken der KI. Die Verbreitung von Fake News, Videos und Bildern werde „viel größer“, sagte er, und „könnte Schaden anrichten“. Google hatte zuvor online ein Dokument veröffentlicht, in dem eine Regulierung der Technologie gefordert wurde, um sicherzustellen, dass sie „angepasst wird[s] mit menschlichen Werten, einschließlich Moral.“ Gegenüber CBS erläuterte er: „Es ist nicht Sache eines Unternehmens, darüber zu entscheiden. Aus diesem Grund denke ich, dass die Entwicklung nicht nur Ingenieure, sondern auch Sozialwissenschaftler, Ethiker, Philosophen und so weiter umfassen muss.“ Laut Pichai bleibt in der künstlichen Intelligenz eine „Black Box“, die wir „nicht vollständig verstehen“. Sowohl ChatGPT als auch Bard waren nicht ohne Fehler. Als Bard gebeten wurde, Scott Pelley von CBS die Inflation zu erklären, empfahl er ihm, fünf Bücher zu lesen, um das Thema besser zu verstehen – von denen keines existierte. ChatGPT ist auch bei einigen grundlegenden Aufgaben gescheitert und soll plausibel klingende, aber völlig falsche Antworten auf Anfragen gegeben haben.

:

rrt-allgemeines