Die Menschheit ist nicht darauf vorbereitet, eine Begegnung mit einer viel klügeren künstlichen Intelligenz zu überleben, sagt Eliezer Yudkowsky
Die Entwicklung fortschrittlicher künstlicher Intelligenzsysteme auf der ganzen Welt einzustellen und diejenigen, die gegen das Moratorium verstoßen, hart zu bestrafen, ist der einzige Weg, die Menschheit vor dem Aussterben zu retten, warnte ein hochkarätiger KI-Forscher. Eliezer Yudkowsky hat am Mittwoch einen Meinungsbeitrag für das TIME-Magazin geschrieben , und erklärt, warum er keine Petition unterzeichnet hat, in der „alle KI-Labore aufgefordert werden, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen“, ein multimodales großes Sprachmodell, das Anfang dieses Monats von OpenAI veröffentlicht wurde. Yudkowsky, Mitbegründer des Machine Intelligence Research Institute (MIRI), argumentierte, dass der von Elon Musk und Steve Wozniak von Apple unterzeichnete Brief „zu wenig verlange, um das Problem der schnellen und unkontrollierten Entwicklung zu lösen“. von KI. „Das wahrscheinlichste Ergebnis des Baus einer übermenschlich intelligenten KI, unter irgendetwas, das auch nur entfernt wie die aktuellen Umstände ist, ist, dass buchstäblich jeder auf der Erde sterben wird“, schrieb Yudkowsky. Eine Begegnung mit einem Computersystem zu überleben, das „sich weder um uns noch um empfindungsfähiges Leben im Allgemeinen kümmert“, würde „Präzision und Vorbereitung und neue wissenschaftliche Erkenntnisse“ erfordern, die der Menschheit derzeit fehlen und die sie in absehbarer Zeit wahrscheinlich nicht erhalten werden, argumentierte er „Eine ausreichend intelligente KI wird nicht lange auf Computer beschränkt bleiben“, warnte Yudkowsky. Er erklärte, dass die Tatsache, dass es bereits möglich ist, DNA-Strings per E-Mail an Labors zu senden, um Proteine herzustellen, es der KI wahrscheinlich ermöglichen werde, „künstliche Lebensformen zu bauen oder direkt zur postbiologischen molekularen Herstellung überzugehen“ und in die Welt hinauszugehen ein unbefristetes und weltweites Moratorium für neue große KI-Trainingsläufe muss sofort eingeführt werden. „Es darf keine Ausnahmen geben, auch nicht für Regierungen oder Militärs“, betonte er. Internationale Abkommen sollten unterzeichnet werden, um eine Obergrenze dafür festzulegen, wie viel Rechenleistung jemand zum Trainieren solcher Systeme verwenden darf, betonte Yudkowsky. „Wenn der Geheimdienst sagt, dass ein Land draußen ist das Abkommen baut einen GPU-Cluster (Graphics Processing Unit) auf, weniger Angst vor einem schießenden Konflikt zwischen Nationen als vor einer Verletzung des Moratoriums; bereit sein, ein Rogue-Rechenzentrum durch Luftangriff zu zerstören“, schrieb er.
LESEN SIE MEHR: ChatGPT-Ersteller warnt vor KI-Gefahren
Die Bedrohung durch künstliche Intelligenz sei so groß, dass „in der internationalen Diplomatie ausdrücklich darauf hingewiesen werden sollte, dass die Verhinderung von KI-Aussterbeszenarien Vorrang vor der Verhinderung eines vollständigen nuklearen Schlagabtauschs hat“, fügte er hinzu.
: