Umstrittener KI-Theoretiker Eliezer Yudkowsky steht am Rande des extremsten Kommentatorenkreises der Branche, in dem das Aussterben der menschlichen Spezies das unvermeidliche Ergebnis der Weiterentwicklung ist künstliche Intelligenz.
„Ich glaube, wir sind noch nicht bereit, ich glaube, wir wissen nicht, was wir tun, und ich glaube, wir werden alle sterben“, sagte Yudkowsky in der dieswöchigen Folge der Bloomberg Originals-Serie AI IRL.
In den letzten zwei Jahrzehnten hat Yudkowsky konsequent seine Theorie vertreten, dass feindliche KI ein Massenaussterben auslösen könnte. Da viele in der KI-Branche bei dieser Einschätzung mit den Schultern zuckten oder die Augenbrauen hochzogen, gründete er mit finanzieller Unterstützung unter anderem von Peter Thiel das Machine Intelligence Research Institute und arbeitete bei schriftlichen Arbeiten mit Zukunftsforschern wie Nick Bostrom zusammen.
Zu sagen, dass einige seiner Visionen vom Ende der Welt unpopulär sind, wäre eine grobe Untertreibung; Sie entsprechen der Prophezeiung, dass die Welt im Jahr 2012 untergehen würde. Diese Vorhersage basierte auf einer fragwürdigen Interpretation eines alten Textes sowie einem Mangel an unterstützenden Beweisen.
Während Yudkowskys Ansichten drakonisch sind, hat die Besorgnis über das Schadenspotenzial von KI in den höchsten Rängen der KI-Gemeinschaft an Bedeutung gewonnen, darunter unter den Vorstandsvorsitzenden einiger der führenden Unternehmen im Bereich der künstlichen Intelligenz, wie OpenAI, Anthropic und Alphabet Inc.’s DeepMind. Der rasante Aufstieg der generativen KI in den letzten acht Monaten hat zu Forderungen nach Regulierung und einer Pause bei der Ausbildung fortschrittlicher KI-Systeme geführt.
Im Mai, Sam AltmanDemis Hassabis und Dario Amodei unterzeichneten zusammen mit Hunderten anderer Führungskräfte und Forscher eine kurze Erklärung des gemeinnützigen Center for AI Safety, in der es hieß: „Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken eine globale Priorität sein.“ wie Pandemien und Atomkrieg.“ Microsoft-Mitbegründer Bill Gates gehörte ebenso zu den Unterzeichnern wie Yudkowsky.
Einige Skeptiker behaupten, dass KI nicht weit genug fortgeschritten sei, um Befürchtungen zu rechtfertigen, dass sie die Menschheit zerstören werde, und dass die Konzentration auf Weltuntergangsszenarien nur eine Ablenkung von Themen wie algorithmischer Voreingenommenheit, Rassismus und dem Risiko darstelle, das von der grassierenden Verbreitung von Desinformation ausgeht.
„Diese Art von Reden ist gefährlich, weil sie zu einem so dominanten Teil des Diskurses geworden ist“, sagte Sasha Luccioni, Forscherin beim KI-Startup Hugging Face, in einem Interview. „Unternehmen, die Öl ins Feuer gießen, nutzen dies, um sich ihrer Verantwortung zu entziehen. Wenn wir über existenzielle Risiken sprechen, geht es nicht um Verantwortlichkeit. Es ist eine Echokammer, die Panik schürt, und ein echtes Risiko ist es.“ dass es zu einer Regulierung führt, die sich auf Aussterbeszenarien konzentriert und nicht auf die Bewältigung konkreter, aktueller Schäden.“
Es ist auch eine Fortsetzung eines historischen Trends zu transformativen Technologien, der Angst, Unsicherheit und Zweifel über das Risiko für Gesundheit und Menschheit auslöst. Vor dem Jahr 2000 herrschte in der Gesellschaft eine kostspielige, kollektive Panik vor dem sogenannten Millennium-Bug. In Wirklichkeit handelte es sich bei der Y2K-Raserei um eine wohlmeinende Vorbereitung, die Systemadministratoren auf der ganzen Welt dazu veranlasste, sicherheitshalber nach Problemen zu suchen.
In jüngerer Zeit stieß die Verbreitung von Mobilfunknetzen der fünften Generation auf Empörung bei Einzelpersonen, die der Meinung waren, dass die versprochenen Vorteile für Kommunikation, intelligente Gebäude und vernetzte Fahrzeuge durch die unbegründeten Gesundheitsrisiken durch elektromagnetische Strahlung von 5G-Türmen bei weitem aufgewogen würden.
Aber auch wenn einige von Yudkowskys Verbündeten seine regelmäßigen Vorhersagen über den KI-Untergang nicht gänzlich glauben, argumentieren sie dennoch, dass seine Motive altruistisch seien und dass es sich trotz all seiner Übertreibungen lohne, ihm zuzuhören.
„Ich glaube, wir sind noch nicht bereit, ich glaube, wir wissen nicht, was wir tun, und ich glaube, wir werden alle sterben“, sagte Yudkowsky in der dieswöchigen Folge der Bloomberg Originals-Serie AI IRL.
In den letzten zwei Jahrzehnten hat Yudkowsky konsequent seine Theorie vertreten, dass feindliche KI ein Massenaussterben auslösen könnte. Da viele in der KI-Branche bei dieser Einschätzung mit den Schultern zuckten oder die Augenbrauen hochzogen, gründete er mit finanzieller Unterstützung unter anderem von Peter Thiel das Machine Intelligence Research Institute und arbeitete bei schriftlichen Arbeiten mit Zukunftsforschern wie Nick Bostrom zusammen.
Zu sagen, dass einige seiner Visionen vom Ende der Welt unpopulär sind, wäre eine grobe Untertreibung; Sie entsprechen der Prophezeiung, dass die Welt im Jahr 2012 untergehen würde. Diese Vorhersage basierte auf einer fragwürdigen Interpretation eines alten Textes sowie einem Mangel an unterstützenden Beweisen.
Während Yudkowskys Ansichten drakonisch sind, hat die Besorgnis über das Schadenspotenzial von KI in den höchsten Rängen der KI-Gemeinschaft an Bedeutung gewonnen, darunter unter den Vorstandsvorsitzenden einiger der führenden Unternehmen im Bereich der künstlichen Intelligenz, wie OpenAI, Anthropic und Alphabet Inc.’s DeepMind. Der rasante Aufstieg der generativen KI in den letzten acht Monaten hat zu Forderungen nach Regulierung und einer Pause bei der Ausbildung fortschrittlicher KI-Systeme geführt.
Im Mai, Sam AltmanDemis Hassabis und Dario Amodei unterzeichneten zusammen mit Hunderten anderer Führungskräfte und Forscher eine kurze Erklärung des gemeinnützigen Center for AI Safety, in der es hieß: „Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken eine globale Priorität sein.“ wie Pandemien und Atomkrieg.“ Microsoft-Mitbegründer Bill Gates gehörte ebenso zu den Unterzeichnern wie Yudkowsky.
Einige Skeptiker behaupten, dass KI nicht weit genug fortgeschritten sei, um Befürchtungen zu rechtfertigen, dass sie die Menschheit zerstören werde, und dass die Konzentration auf Weltuntergangsszenarien nur eine Ablenkung von Themen wie algorithmischer Voreingenommenheit, Rassismus und dem Risiko darstelle, das von der grassierenden Verbreitung von Desinformation ausgeht.
„Diese Art von Reden ist gefährlich, weil sie zu einem so dominanten Teil des Diskurses geworden ist“, sagte Sasha Luccioni, Forscherin beim KI-Startup Hugging Face, in einem Interview. „Unternehmen, die Öl ins Feuer gießen, nutzen dies, um sich ihrer Verantwortung zu entziehen. Wenn wir über existenzielle Risiken sprechen, geht es nicht um Verantwortlichkeit. Es ist eine Echokammer, die Panik schürt, und ein echtes Risiko ist es.“ dass es zu einer Regulierung führt, die sich auf Aussterbeszenarien konzentriert und nicht auf die Bewältigung konkreter, aktueller Schäden.“
Es ist auch eine Fortsetzung eines historischen Trends zu transformativen Technologien, der Angst, Unsicherheit und Zweifel über das Risiko für Gesundheit und Menschheit auslöst. Vor dem Jahr 2000 herrschte in der Gesellschaft eine kostspielige, kollektive Panik vor dem sogenannten Millennium-Bug. In Wirklichkeit handelte es sich bei der Y2K-Raserei um eine wohlmeinende Vorbereitung, die Systemadministratoren auf der ganzen Welt dazu veranlasste, sicherheitshalber nach Problemen zu suchen.
In jüngerer Zeit stieß die Verbreitung von Mobilfunknetzen der fünften Generation auf Empörung bei Einzelpersonen, die der Meinung waren, dass die versprochenen Vorteile für Kommunikation, intelligente Gebäude und vernetzte Fahrzeuge durch die unbegründeten Gesundheitsrisiken durch elektromagnetische Strahlung von 5G-Türmen bei weitem aufgewogen würden.
Aber auch wenn einige von Yudkowskys Verbündeten seine regelmäßigen Vorhersagen über den KI-Untergang nicht gänzlich glauben, argumentieren sie dennoch, dass seine Motive altruistisch seien und dass es sich trotz all seiner Übertreibungen lohne, ihm zuzuhören.