Im Jahr 2020 veröffentlichte der in Oxford lebende Philosoph Toby Ord ein Buch mit dem Titel Der Abgrund über die Gefahr des Aussterbens der Menschheit. Er bezifferte die Wahrscheinlichkeit einer „existenziellen Katastrophe“ für unsere Spezies im nächsten Jahrhundert auf 1 zu 6.
Es ist eine ganz konkrete und alarmierende Zahl. Die Klage wurde erhoben Schlagzeilen damals und ist seitdem einflussreich – zuletzt vorgebracht vom australischen Politiker Andrew Leigh in einem Rede in Melbourne.
Es ist schwer, der Vorstellung zu widersprechen, dass uns in den kommenden Jahrzehnten beunruhigende Aussichten bevorstehen, vom Klimawandel über Atomwaffen und biotechnologisch hergestellte Krankheitserreger (alles große Themen meiner Meinung nach) bis hin zu abtrünniger KI und großen Asteroiden (die ich als weniger besorgniserregend ansehen würde). ).
Aber was ist mit dieser Zahl? Woher kommt das? Und was bedeutet es wirklich?
Münzwürfe und Wettervorhersagen
Um diese Fragen zu beantworten, müssen wir zunächst eine andere beantworten: Was ist Wahrscheinlichkeit?
Die traditionellste Sichtweise der Wahrscheinlichkeit wird Frequentismus genannt und leitet ihren Namen von ihrer Herkunft aus Würfel- und Kartenspielen ab. Aus dieser Sicht wissen wir, dass die Wahrscheinlichkeit, dass ein fairer Würfel eine Drei ergibt, bei 1 zu 6 liegt (zum Beispiel), indem wir die Häufigkeit von Dreien bei einer großen Anzahl von Würfen beobachten.
Oder betrachten Sie den komplizierteren Fall der Wettervorhersagen. Was bedeutet es, wenn uns ein Wetterforscher sagt, dass die Wahrscheinlichkeit, dass es morgen regnen wird, bei 1 zu 6 (oder 17 %) liegt?
Es ist kaum zu glauben, dass der Wetterforscher uns eine große Ansammlung von „Morgen“ vorstellt, von denen ein Teil Niederschlag erleben wird. Stattdessen müssen wir uns eine große Anzahl solcher Vorhersagen ansehen und sehen, was danach geschah.
Wenn der Prognostiker seine Arbeit gut macht, sollten wir sehen, dass es am folgenden Tag tatsächlich jedes sechste Mal geregnet hat, als er sagte: „Die Wahrscheinlichkeit, dass es morgen regnen wird, liegt bei 1 zu 6.“
Die traditionelle Wahrscheinlichkeit hängt also von Beobachtungen und Verfahren ab. Um es zu berechnen, benötigen wir eine Sammlung wiederholter Ereignisse, auf denen unsere Schätzung basieren kann.
Können wir vom Mond lernen?
Was bedeutet das also für die Wahrscheinlichkeit des Aussterbens der Menschheit? Nun, ein solches Ereignis wäre ein Einzelfall: Nachdem es passiert ist, gäbe es keinen Raum mehr für Wiederholungen.
Stattdessen finden wir möglicherweise einige parallele Ereignisse, aus denen wir lernen können. Tatsächlich erörtert Ord in seinem Buch eine Reihe potenzieller Aussterbeereignisse, von denen einige möglicherweise im Lichte einer Geschichte untersucht werden können.
Beispielsweise können wir die Wahrscheinlichkeit abschätzen, dass ein Asteroid in der Größe eines Aussterbens die Erde trifft, indem wir untersuchen, wie viele solcher Weltraumgesteine im Laufe seiner Geschichte den Mond getroffen haben. Ein französischer Wissenschaftler namens Jean-Marc Salotti habe dies im Jahr 2022 getanwobei die Wahrscheinlichkeit eines Aussterbens im nächsten Jahrhundert auf etwa 1 zu 300 Millionen geschätzt wird.
Natürlich ist eine solche Schätzung mit Unsicherheiten behaftet, aber sie wird durch etwas gestützt, das einer angemessenen Häufigkeitsberechnung nahekommt. Im Gegensatz dazu schätzt Ord das Risiko des Aussterbens durch einen Asteroiden auf 1 zu 1 Million, obwohl er ein erhebliches Maß an Unsicherheit feststellt.
Ein Ranking-System für Ergebnisse
Es gibt eine andere Art, über Wahrscheinlichkeit nachzudenken, den sogenannten Bayesianismus, benannt nach dem englischen Statistiker Thomas Bayes. Es konzentriert sich weniger auf die Ereignisse selbst als vielmehr auf das, was wir über sie wissen, erwarten und glauben.
Ganz einfach ausgedrückt können wir sagen, dass Bayesianer Wahrscheinlichkeiten als eine Art Rangsystem betrachten. Aus dieser Sicht sollte die einer Wahrscheinlichkeit zugeordnete spezifische Zahl nicht direkt genommen, sondern mit anderen Wahrscheinlichkeiten verglichen werden, um zu verstehen, welche Ergebnisse wahrscheinlicher und welche weniger wahrscheinlich sind.
Ords Buch enthält beispielsweise eine Tabelle potenzieller Aussterbeereignisse und seine persönlichen Einschätzungen zu deren Wahrscheinlichkeit. Aus bayesianischer Sicht können wir diese Werte als relative Ränge betrachten. Ord glaubt, dass das Aussterben durch einen Asteroideneinschlag (1 von 1 Million) viel weniger wahrscheinlich ist als das Aussterben durch den Klimawandel (1 von 1.000), und beide sind weitaus weniger wahrscheinlich als das Aussterben durch das, was er als „nicht ausgerichtete künstliche Intelligenz“ bezeichnet (1 von 10). ).
Die Schwierigkeit hierbei besteht darin, dass anfängliche Schätzungen der Bayes’schen Wahrscheinlichkeiten (oft als „Priors“ bezeichnet) eher subjektiv sind (zum Beispiel würde ich die Wahrscheinlichkeit eines KI-basierten Aussterbens viel niedriger einstufen). Die traditionelle bayesianische Argumentation geht von „priors“ zu „posteriors“ über, indem sie erneut Beobachtungsnachweise relevanter Ergebnisse einbezieht, um Wahrscheinlichkeitswerte zu „aktualisieren“.
Und wieder einmal sind Ergebnisse, die sich auf die Wahrscheinlichkeit des Aussterbens der Menschheit beziehen, dürftig.
Subjektive Schätzungen
Es gibt zwei Möglichkeiten, über die Genauigkeit und Nützlichkeit von Wahrscheinlichkeitsberechnungen nachzudenken: Kalibrierung und Diskriminierung.
Bei der Kalibrierung handelt es sich um die Richtigkeit der tatsächlichen Werte der Wahrscheinlichkeiten. Ohne entsprechende Beobachtungsinformationen können wir dies nicht feststellen. Diskriminierung hingegen bezieht sich einfach auf die relative Rangfolge.
Wir haben keine Grundlage für die Annahme, dass die Werte von Ord richtig kalibriert sind. Natürlich dürfte dies nicht seine Absicht sein. Er selbst gibt an, dass sie hauptsächlich darauf ausgelegt seien, Hinweise auf „Größenordnungen“ zu geben.
Dennoch bleiben die meisten dieser Schätzungen ohne entsprechende Beobachtungsbestätigung einfach im subjektiven Bereich der A-priori-Wahrscheinlichkeiten.
Nicht gut kalibriert – aber vielleicht immer noch nützlich
Was sollen wir also von „1 von 6“ halten? Die Erfahrung lässt darauf schließen, dass die meisten Menschen über ein unvollständiges Verständnis der Wahrscheinlichkeit verfügen (was unter anderem durch das anhaltende Volumen der Lottoscheinverkäufe belegt wird). Wenn Sie in diesem Umfeld öffentlich argumentieren, muss eine Schätzung der „Wahrscheinlichkeit“ nicht unbedingt gut kalibriert sein – sie muss lediglich die richtige psychologische Wirkung haben.
Aus dieser Perspektive würde ich sagen, dass „1 von 6“ genau das Richtige ist. „1 von 100“ könnte sich klein genug anfühlen, um ignoriert zu werden, während „1 von 3“ Panik auslösen oder als apokalyptische Schwärmerei abgetan werden könnte.
Als Mensch, der sich Sorgen um die Zukunft macht, hoffe ich, dass Risiken wie der Klimawandel und die Verbreitung von Atomwaffen die Aufmerksamkeit erhalten, die sie verdienen. Aber als Datenwissenschaftler hoffe ich, dass der nachlässige Umgang mit Wahrscheinlichkeiten auf der Strecke bleibt und durch eine umfassende Aufklärung über ihre wahre Bedeutung und angemessene Verwendung ersetzt wird.
Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lies das originaler Artikel.