Y a-t-il réellement une chance sur six d’extinction de l’humanité au cours de ce siècle ?

En 2020, le philosophe Toby Ord, basé à Oxford, a publié un livre intitulé Le précipice sur le risque d’extinction de l’humanité. Il estime à 1 sur 6 le risque de « catastrophe existentielle » pour notre espèce au cours du prochain siècle.

Il s’agit d’un chiffre assez précis et alarmant. La réclamation a attiré titres à l’époque, et a été influent depuis – le plus récemment évoqué par le politicien australien Andrew Leigh dans un discours à Melbourne.

Il est difficile d’être en désaccord avec l’idée que nous serons confrontés à des perspectives inquiétantes au cours des décennies à venir, du changement climatique, des armes nucléaires et des agents pathogènes issus du génie biologique (tous des problèmes majeurs à mon avis), à l’IA malveillante et aux gros astéroïdes (que je considérerais comme moins préoccupants). ).

Mais qu’en est-il de ce numéro ? D’où est ce que ça vient? Et qu’est-ce que cela signifie réellement ?

Tirages de pièces et prévisions météorologiques

Pour répondre à ces questions, nous devons d’abord répondre à une autre : qu’est-ce que la probabilité ?

La vision la plus traditionnelle des probabilités est appelée fréquentisme et tire son nom de son héritage dans les jeux de dés et de cartes. De ce point de vue, nous savons qu’il y a 1 chance sur 6 qu’un dé juste donne un trois (par exemple) en observant la fréquence des trois dans un grand nombre de lancers.

Ou considérons le cas plus compliqué des prévisions météorologiques. Qu’est-ce que cela signifie lorsqu’un météorologue nous dit qu’il y a une chance sur 6 (ou 17 %) qu’il pleuve demain ?

Il est difficile de croire que le météorologue veut nous faire imaginer un vaste ensemble de « demains », dont une partie connaîtra des précipitations. Au lieu de cela, nous devons examiner un grand nombre de ces prédictions et voir ce qui s’est passé après elles.

Si le prévisionniste fait bien son travail, nous devrions voir que lorsqu’il dit « 1 chance sur 6 qu’il pleuve demain », il a en fait plu le lendemain une fois sur six.

Ainsi, la probabilité traditionnelle dépend des observations et de la procédure. Pour le calculer, nous devons disposer d’un ensemble d’événements répétés sur lesquels baser notre estimation.

Pouvons-nous apprendre de la lune ?

Alors, qu’est-ce que cela signifie pour la probabilité d’extinction de l’humanité ? Eh bien, un tel événement serait unique : une fois qu’il s’est produit, il n’y aurait plus de place pour une répétition.

Au lieu de cela, nous pourrions trouver des événements parallèles dont nous pourrions tirer des leçons. En effet, dans le livre d’Ord, il évoque un certain nombre d’événements d’extinction potentiels, dont certains peuvent potentiellement être examinés à la lumière d’une histoire.

Par exemple, nous pouvons estimer les chances qu’un astéroïde de taille extinction frappe la Terre en examinant combien de roches spatiales de ce type ont heurté la Lune au cours de son histoire. Un scientifique français nommé Jean-Marc Salotti je l’ai fait en 2022calculant la probabilité d’un niveau d’extinction atteint au siècle prochain à environ 1 sur 300 millions.

Bien sûr, une telle estimation est pleine d’incertitudes, mais elle s’appuie sur quelque chose qui se rapproche d’un calcul de fréquence approprié. Ord, en revanche, estime le risque d’extinction par un astéroïde à 1 sur 1 million, tout en notant un degré d’incertitude considérable.

Un système de classement des résultats

Il existe une autre façon de penser les probabilités, appelée bayésianisme, du nom du statisticien anglais Thomas Bayes. Il se concentre moins sur les événements eux-mêmes et davantage sur ce que nous savons, attendons et croyons à leur sujet.

En termes très simples, nous pouvons dire que les Bayésiens voient les probabilités comme une sorte de système de classement. De ce point de vue, le nombre spécifique attaché à une probabilité ne doit pas être pris directement, mais plutôt comparé à d’autres probabilités pour comprendre quels résultats sont plus ou moins probables.

Le livre d’Ord, par exemple, contient un tableau des événements d’extinction potentiels et ses estimations personnelles de leur probabilité. D’un point de vue bayésien, nous pouvons considérer ces valeurs comme des classements relatifs. Ord pense que l’extinction due à l’impact d’un astéroïde (1 sur 1 million) est beaucoup moins probable que l’extinction due au changement climatique (1 sur 1 000), et les deux sont beaucoup moins probables que l’extinction due à ce qu’il appelle « l’intelligence artificielle non alignée » (1 sur 10). ).

La difficulté ici est que les estimations initiales des probabilités bayésiennes (souvent appelées « a priori ») sont plutôt subjectives (par exemple, je classerais beaucoup plus bas les chances d’extinction basées sur l’IA). Le raisonnement bayésien traditionnel passe des « antérieurs » aux « postérieurs » en incorporant à nouveau des preuves observationnelles de résultats pertinents pour « mettre à jour » les valeurs de probabilité.

Et encore une fois, les résultats relatifs à la probabilité d’extinction de l’humanité sont rares.

Estimations subjectives

Il existe deux manières d’envisager l’exactitude et l’utilité des calculs de probabilité : l’étalonnage et la discrimination.

L’étalonnage est l’exactitude des valeurs réelles des probabilités. Nous ne pouvons pas déterminer cela sans informations d’observation appropriées. La discrimination, quant à elle, se réfère simplement aux classements relatifs.

Nous n’avons aucune base permettant de penser que les valeurs d’Ord sont correctement calibrées. Bien sûr, ce n’est probablement pas son intention. Il indique lui-même qu’ils sont pour la plupart conçus pour donner des indications « d’ordre de grandeur ».

Même ainsi, sans aucune confirmation observationnelle connexe, la plupart de ces estimations restent simplement dans le domaine subjectif des probabilités a priori.

Pas bien calibré, mais peut-être toujours utile

Alors, que devons-nous penser du « 1 sur 6 » ? L’expérience suggère que la plupart des gens ont une compréhension loin d’être parfaite des probabilités (comme en témoigne, entre autres choses, le volume continu des ventes de billets de loterie). Dans cet environnement, si vous présentez un argument en public, une estimation de la « probabilité » n’a pas nécessairement besoin d’être bien calibrée ; elle doit simplement avoir le bon type d’impact psychologique.

De ce point de vue, je dirais que « 1 sur 6 » fait l’affaire. « 1 sur 100 » peut sembler suffisamment petit pour être ignoré, tandis que « 1 sur 3 » peut provoquer la panique ou être considéré comme un délire apocalyptique.

En tant que personne préoccupée par l’avenir, j’espère que les risques tels que le changement climatique et la prolifération nucléaire recevront l’attention qu’ils méritent. Mais en tant que data scientist, j’espère que l’utilisation imprudente des probabilités sera laissée de côté et remplacée par une éducation généralisée sur sa véritable signification et son utilisation appropriée.

Fourni par La conversation

Cet article est republié à partir de La conversation sous licence Creative Commons. Lis le article original.

ph-tech