KI Forscher, Ingenieure und CEOs haben eine Erklärung veröffentlicht, in der sie ihre Besorgnis über die potenzielle Gefahr zum Ausdruck bringen, die von KI ausgeht und die Menschheit auslöschen könnte, und das Bedrohungsniveau mit Pandemien und Atomkrieg vergleichen. „Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein“, heißt es in ihrer 22-Wörter-Erklärung.
Diese Erklärung wurde von einer in San Francisco ansässigen gemeinnützigen Organisation, dem Center for AI Safety, veröffentlicht und von prominenten Persönlichkeiten wie mitunterzeichnet OpenAI CEO Sam Altman, Google DeepMind CEO Demis Hassabissowie Geoffrey Hinton und Youshua Bengio – zwei der drei KI-Forscher, die 2018 den Turing Award gewonnen haben, der manchmal auch als „Nobelpreis der Informatik“ bezeichnet wird.
„KI-Experten, Journalisten, politische Entscheidungsträger und die Öffentlichkeit diskutieren zunehmend über ein breites Spektrum wichtiger und dringender Risiken durch KI“, heißt es in der Einleitung der 22-Wörter-Erklärung. „Trotzdem kann es schwierig sein, Bedenken hinsichtlich einiger der schwerwiegendsten Risiken fortgeschrittener KI zu äußern. Die folgende prägnante Aussage zielt darauf ab, dieses Hindernis zu überwinden und eine Diskussion anzustoßen. Sie soll auch ein gemeinsames Wissen der wachsenden Zahl von Experten und der Öffentlichkeit schaffen Persönlichkeiten, die auch einige der schwerwiegendsten Risiken der fortgeschrittenen KI ernst nehmen.“
Mehr Stimmen für die „Kontrolle“ der KI
Diese Aussage ergänzt die anhaltende und kontroverse Diskussion über die Sicherheit künstlicher Intelligenz. Zu Beginn dieses Jahres unterstützte eine Gruppe von Menschen die 22-Wörter-Warnung, darunter Steve Wozniak, Elon Musk, und 1000 andere, schrieben einen offenen Brief, in dem sie um eine sechsmonatige „Pause“ in der KI-Entwicklung baten. „In den letzten Monaten waren KI-Labore in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren kann“, heißt es in dem Brief.
Dan Hendrycks, der geschäftsführende Direktor des Center for AI Safety, sagte der New York Times, dass die heute veröffentlichte Erklärung absichtlich einfach gehalten wurde, um Meinungsverschiedenheiten zu vermeiden. Hendrycks erklärte, dass sie die Menschen nicht mit zu vielen möglichen Lösungen überfordern und die Botschaft verwässern wollten.
Die Erklärung war für die Menschen in der Branche eine Möglichkeit, ihre Besorgnis über die Gefahren der KI zum Ausdruck zu bringen, die oft missverstanden wird, als ob sie nur ein Problem für einige wenige Personen sei. Hendrycks stellte klar, dass viele Menschen in der KI-Community diese Bedenken privat teilen.
Diese Erklärung wurde von einer in San Francisco ansässigen gemeinnützigen Organisation, dem Center for AI Safety, veröffentlicht und von prominenten Persönlichkeiten wie mitunterzeichnet OpenAI CEO Sam Altman, Google DeepMind CEO Demis Hassabissowie Geoffrey Hinton und Youshua Bengio – zwei der drei KI-Forscher, die 2018 den Turing Award gewonnen haben, der manchmal auch als „Nobelpreis der Informatik“ bezeichnet wird.
„KI-Experten, Journalisten, politische Entscheidungsträger und die Öffentlichkeit diskutieren zunehmend über ein breites Spektrum wichtiger und dringender Risiken durch KI“, heißt es in der Einleitung der 22-Wörter-Erklärung. „Trotzdem kann es schwierig sein, Bedenken hinsichtlich einiger der schwerwiegendsten Risiken fortgeschrittener KI zu äußern. Die folgende prägnante Aussage zielt darauf ab, dieses Hindernis zu überwinden und eine Diskussion anzustoßen. Sie soll auch ein gemeinsames Wissen der wachsenden Zahl von Experten und der Öffentlichkeit schaffen Persönlichkeiten, die auch einige der schwerwiegendsten Risiken der fortgeschrittenen KI ernst nehmen.“
Mehr Stimmen für die „Kontrolle“ der KI
Diese Aussage ergänzt die anhaltende und kontroverse Diskussion über die Sicherheit künstlicher Intelligenz. Zu Beginn dieses Jahres unterstützte eine Gruppe von Menschen die 22-Wörter-Warnung, darunter Steve Wozniak, Elon Musk, und 1000 andere, schrieben einen offenen Brief, in dem sie um eine sechsmonatige „Pause“ in der KI-Entwicklung baten. „In den letzten Monaten waren KI-Labore in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren kann“, heißt es in dem Brief.
Dan Hendrycks, der geschäftsführende Direktor des Center for AI Safety, sagte der New York Times, dass die heute veröffentlichte Erklärung absichtlich einfach gehalten wurde, um Meinungsverschiedenheiten zu vermeiden. Hendrycks erklärte, dass sie die Menschen nicht mit zu vielen möglichen Lösungen überfordern und die Botschaft verwässern wollten.
Die Erklärung war für die Menschen in der Branche eine Möglichkeit, ihre Besorgnis über die Gefahren der KI zum Ausdruck zu bringen, die oft missverstanden wird, als ob sie nur ein Problem für einige wenige Personen sei. Hendrycks stellte klar, dass viele Menschen in der KI-Community diese Bedenken privat teilen.