Künstliche Intelligenz (KI) hat in den letzten Jahren erstaunliche Fortschritte gemacht. Einige Wissenschaftler blicken nun auf die Entwicklung von Künstliche Superintelligenz (ASI)– eine Form der KI, die nicht nur die menschliche Intelligenz übertrifft, sondern auch nicht an die Lerngeschwindigkeit des Menschen gebunden wäre.
Was aber, wenn dieser Meilenstein nicht nur eine bemerkenswerte Leistung ist? Was wäre, wenn es auch einen gewaltigen Engpass in der Entwicklung aller Zivilisationen darstellt, der so herausfordernd ist, dass er ihr langfristiges Überleben zunichte macht?
Diese Idee steht im Mittelpunkt von a Forschungsbericht Ich habe kürzlich veröffentlicht in Acta Astronautica. Könnte KI dem Universum gehören? „toller Filter“– eine Schwelle, die so schwer zu überwinden ist, dass sie die Entwicklung der meisten Lebewesen zu weltraumtauglichen Zivilisationen verhindert?
Dies ist ein Konzept, das erklären könnte, warum die Suche nach außerirdischer Intelligenz (SETI) die Signaturen fortgeschrittener technischer Zivilisationen anderswo in der Galaxie noch nicht entdeckt hat.
Die große Filterhypothese ist letztendlich ein Lösungsvorschlag für das Fermi-Paradoxon. Dies stellt die Frage, warum wir in einem Universum, das riesig und alt genug ist, um Milliarden potenziell bewohnbarer Planeten zu beherbergen, keine Anzeichen außerirdischer Zivilisationen entdeckt haben. Die Hypothese legt nahe, dass es in der evolutionären Zeitleiste von Zivilisationen unüberwindbare Hürden gibt, die sie daran hindern, sich zu weltraumfahrenden Wesen zu entwickeln.
Ich glaube, dass die Entstehung von ASI ein solcher Filter sein könnte. Der rasche Fortschritt der KI, der möglicherweise zu ASI führt, kann sich mit einer kritischen Phase in der Entwicklung einer Zivilisation überschneiden – dem Übergang von einer Spezies auf einem einzigen Planeten zu einer multiplanetarisch eins.
Hier könnten viele Zivilisationen ins Wanken geraten, da die KI viel schnellere Fortschritte macht als unsere Fähigkeit, sie zu kontrollieren oder unser Sonnensystem nachhaltig zu erforschen und zu bevölkern.
Die Herausforderung bei KI und insbesondere bei ASI liegt in ihrer autonomen, sich selbst verstärkenden und verbessernden Natur. Es besitzt das Potenzial, seine eigenen Fähigkeiten mit einer Geschwindigkeit zu verbessern, die unsere eigenen evolutionären Zeitpläne ohne KI übertrifft.
Das Potenzial, dass etwas gravierend schiefgehen kann, ist enorm und führt zum Untergang sowohl der biologischen als auch der KI-Zivilisationen, bevor sie jemals die Chance bekommen, multiplanetarisch zu werden. Wenn sich Nationen beispielsweise zunehmend auf autonome, miteinander konkurrierende KI-Systeme verlassen und ihnen Macht überlassen, könnten militärische Fähigkeiten in einem noch nie dagewesenen Ausmaß zum Töten und Zerstören eingesetzt werden. Dies könnte möglicherweise zur Zerstörung unserer gesamten Zivilisation führen, einschließlich der KI-Systeme selbst.
In diesem Szenario schätze ich, dass die typische Lebensdauer einer technologischen Zivilisation weniger als 100 Jahre betragen könnte. Das ist ungefähr die Zeitspanne zwischen dem Empfang und der Übertragung von Signalen zwischen den Sternen (1960) und dem geschätzten Auftreten von ASI (2040) auf der Erde. Dies ist erschreckend kurz, wenn man es mit der kosmischen Zeitskala von Milliarden Jahren vergleicht.
Wenn man diese Schätzung in optimistische Versionen der Drake-Gleichung einfügt – die versucht, die Anzahl der aktiven, kommunikativen außerirdischen Zivilisationen in der Milchstraße abzuschätzen –, legt man nahe, dass es zu jedem Zeitpunkt nur eine Handvoll intelligenter Zivilisationen gibt. Darüber hinaus könnten sie, wie wir, aufgrund ihrer relativ bescheidenen technologischen Aktivitäten ziemlich schwierig zu entdecken sein.
Weckruf
Diese Forschung ist nicht nur eine warnende Geschichte über den möglichen Untergang. Es dient als Weckruf für die Menschheit, robuste regulatorische Rahmenbedingungen zu schaffen, um die Entwicklung von KI, einschließlich militärischer Systeme, zu steuern.
Dabei geht es nicht nur darum, den böswilligen Einsatz von KI auf der Erde zu verhindern; Es geht auch darum, sicherzustellen, dass die Entwicklung der KI mit dem langfristigen Überleben unserer Spezies im Einklang steht. Es deutet darauf hin, dass wir so schnell wie möglich mehr Ressourcen in die Entwicklung einer multiplanetaren Gesellschaft stecken müssen – ein Ziel, das seit den aufregenden Tagen des Jahres schlummerte Apollo-Projektwurde aber in letzter Zeit durch Fortschritte privater Unternehmen wiederbelebt.
Als die Der Historiker Yuval Noah Harari bemerkteNichts in der Geschichte hat uns auf die Auswirkungen der Einführung unbewusster, superintelligenter Wesenheiten auf unserem Planeten vorbereitet. In jüngster Zeit haben die Auswirkungen der autonomen KI-Entscheidungsfindung dazu geführt Anrufe von prominenten Führungskräften auf diesem Gebiet für ein Moratorium für die Entwicklung von KI, bis eine verantwortungsvolle Form der Kontrolle und Regulierung eingeführt werden kann.
Aber selbst wenn jedes Land sich bereit erklären würde, strenge Regeln und Vorschriften einzuhalten, wird es schwierig sein, Schurkenorganisationen einzudämmen.
Die Integration autonomer KI in militärische Verteidigungssysteme muss ein besonderes Anliegen sein. Es gibt bereits Hinweise darauf, dass der Mensch freiwillig erhebliche Macht an immer leistungsfähigere Systeme abgeben wird, da er nützliche Aufgaben ohne menschliches Eingreifen viel schneller und effektiver ausführen kann. Angesichts der strategischen Vorteile, die KI bietet, zögern Regierungen daher, in diesem Bereich weiterhin Regulierungen vorzunehmen vor kurzem in Gaza verheerend demonstriert.
Dies bedeutet, dass wir uns bereits gefährlich an einem Abgrund befinden, an dem autonome Waffen über ethische Grenzen hinaus operieren und internationales Recht umgehen. In einer solchen Welt könnte die Übergabe der Macht an KI-Systeme zur Erlangung eines taktischen Vorteils unbeabsichtigt eine Kette schnell eskalierender, äußerst zerstörerischer Ereignisse auslösen. Im Handumdrehen könnte die kollektive Intelligenz unseres Planeten ausgelöscht werden.
Die Menschheit befindet sich an einem entscheidenden Punkt ihrer technologischen Entwicklung. Unser Handeln könnte nun darüber entscheiden, ob wir eine dauerhafte interstellare Zivilisation werden oder den Herausforderungen unserer eigenen Schöpfungen unterliegen.
Die Verwendung von SETI als Linse, durch die wir unsere zukünftige Entwicklung untersuchen können, verleiht der Diskussion über die Zukunft der KI eine neue Dimension. Es liegt an uns allen, sicherzustellen, dass wir, wenn wir nach den Sternen greifen, dies nicht als warnendes Beispiel für andere Zivilisationen tun, sondern als Leuchtfeuer der Hoffnung – einer Spezies, die gelernt hat, neben der KI zu gedeihen.
Mehr Informationen:
Michael A. Garrett, Ist künstliche Intelligenz der große Filter, der fortgeschrittene technische Zivilisationen im Universum selten macht?, Acta Astronautica (2024). DOI: 10.1016/j.actaastro.2024.03.052
Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lies das originaler Artikel.