L’IA pourrait être responsable de notre échec à entrer en contact avec des civilisations extraterrestres

Intelligence artificielle (IA) a progressé à un rythme effarant au cours des dernières années. Certains scientifiques se tournent désormais vers le développement de superintelligence artificielle (ASI)– une forme d’IA qui non seulement surpasserait l’intelligence humaine, mais ne serait pas limitée par la vitesse d’apprentissage des humains.

Et si cette étape n’était pas seulement une réussite remarquable ? Et si cela représentait également un formidable goulot d’étranglement dans le développement de toutes les civilisations, un goulot d’étranglement si difficile qu’il compromet leur survie à long terme ?

Cette idée est au cœur d’un document de recherche J’ai récemment publié dans Acta Astronautique. L’IA pourrait-elle être celle de l’univers « super filtre »– un seuil si difficile à franchir qu’il empêche la plupart des formes de vie d’évoluer vers des civilisations spatiales ?

C’est un concept qui pourrait expliquer pourquoi la recherche d’intelligence extraterrestre (SETI) n’a pas encore détecté les signatures de civilisations techniques avancées ailleurs dans la galaxie.

L’hypothèse du grand filtre est en fin de compte une solution proposée au Paradoxe de Fermi. On peut se demander pourquoi, dans un univers suffisamment vaste et ancien pour abriter des milliards de planètes potentiellement habitables, nous n’avons détecté aucun signe de civilisation extraterrestre. L’hypothèse suggère qu’il existe des obstacles insurmontables dans la chronologie évolutive des civilisations qui les empêchent de se développer en entités spatiales.

Je pense que l’émergence de l’ASI pourrait être un tel filtre. Les progrès rapides de l’IA, qui pourraient conduire à l’ASI, pourraient coïncider avec une phase critique du développement d’une civilisation : la transition d’une espèce monoplanétaire à une espèce multiplanétaire un.

C’est là que de nombreuses civilisations pourraient faiblir, l’IA progressant bien plus rapidement que notre capacité à la contrôler ou à explorer et peupler durablement notre système solaire.

Le défi de l’IA, et plus particulièrement de l’ASI, réside dans sa nature autonome, auto-amplifiée et amélioratrice. Il possède le potentiel d’améliorer ses propres capacités à une vitesse qui dépasse nos propres délais d’évolution sans IA.

Le potentiel que quelque chose tourne mal est énorme, conduisant à la chute des civilisations biologiques et de l’IA avant qu’elles n’aient la chance de devenir multiplanétaires. Par exemple, si les nations s’appuient de plus en plus sur des systèmes d’IA autonomes qui se font concurrence et leur cèdent le pouvoir, les capacités militaires pourraient être utilisées pour tuer et détruire à une échelle sans précédent. Cela pourrait potentiellement conduire à la destruction de toute notre civilisation, y compris des systèmes d’IA eux-mêmes.

Dans ce scénario, j’estime que la longévité typique d’une civilisation technologique pourrait être inférieure à 100 ans. C’est à peu près le temps écoulé entre la capacité de recevoir et de diffuser des signaux entre les étoiles (1960) et l’émergence estimée de l’ASI (2040) sur Terre. C’est extrêmement court si on le compare à l’échelle de temps cosmique de milliards d’années.

Cette estimation, lorsqu’elle est reliée aux versions optimistes de l’équation de Drake – qui tente d’estimer le nombre de civilisations extraterrestres actives et communicatives dans la Voie lactée – suggère qu’à un moment donné, il n’existe qu’une poignée de civilisations intelligentes. De plus, comme nous, leurs activités technologiques relativement modestes pourraient rendre leur détection assez difficile.

Appel de réveil

Cette recherche n’est pas simplement une mise en garde contre une catastrophe potentielle. Il s’agit d’un signal d’alarme pour que l’humanité mette en place des cadres réglementaires solides pour guider le développement de l’IA, y compris des systèmes militaires.

Il ne s’agit pas seulement d’empêcher l’utilisation malveillante de l’IA sur Terre ; il s’agit également de garantir que l’évolution de l’IA s’aligne sur la survie à long terme de notre espèce. Cela suggère que nous devons consacrer plus de ressources pour devenir une société multiplanétaire le plus tôt possible – un objectif qui est resté en sommeil depuis les jours grisants de l’ère moderne. Projet Apollonmais a récemment été relancé par les progrès réalisés par les entreprises privées.

Comme le l’historien Yuval Noah Harari a noté, rien dans l’histoire ne nous a préparés à l’impact de l’introduction d’entités inconscientes et super-intelligentes sur notre planète. Récemment, les implications de la prise de décision autonome en matière d’IA ont conduit à appels d’éminents dirigeants du domaine pour un moratoire sur le développement de l’IA, jusqu’à ce qu’une forme responsable de contrôle et de réglementation puisse être introduite.

Mais même si tous les pays acceptaient de respecter des règles et réglementations strictes, les organisations malhonnêtes seront difficiles à maîtriser.

L’intégration de l’IA autonome dans les systèmes de défense militaire doit constituer un domaine de préoccupation particulier. Il existe déjà des preuves que les humains renonceront volontairement à un pouvoir important au profit de systèmes de plus en plus performants, car ils peuvent effectuer des tâches utiles beaucoup plus rapidement et efficacement sans intervention humaine. Les gouvernements sont donc réticents à réglementer dans ce domaine compte tenu des avantages stratégiques qu’offre l’IA, comme cela a été le cas récemment et de manière dévastatrice, à Gaza.

Cela signifie que nous nous rapprochons déjà dangereusement d’un précipice où les armes autonomes opèrent au-delà des frontières éthiques et contournent le droit international. Dans un tel monde, céder le pouvoir aux systèmes d’IA afin d’obtenir un avantage tactique pourrait déclencher par inadvertance une chaîne d’événements hautement destructeurs qui s’intensifient rapidement. En un clin d’œil, l’intelligence collective de notre planète pourrait être anéantie.

L’humanité se trouve à un moment crucial de sa trajectoire technologique. Nos actions pourraient désormais déterminer si nous deviendrons une civilisation interstellaire durable ou si nous succomberons aux défis posés par nos propres créations.

Utiliser SETI comme une lentille à travers laquelle nous pouvons examiner notre développement futur ajoute une nouvelle dimension au débat sur l’avenir de l’IA. Il appartient à nous tous de veiller à ce que lorsque nous visons les étoiles, nous ne le fassions pas comme un avertissement pour les autres civilisations, mais comme une lueur d’espoir : une espèce qui a appris à prospérer aux côtés de l’IA.

Plus d’information:
Michael A. Garrett, L’intelligence artificielle est-elle le grand filtre qui rend les civilisations techniques avancées rares dans l’univers ?, Acta Astronautique (2024). DOI : 10.1016/j.actaastro.2024.03.052

Fourni par La conversation

Cet article est republié à partir de La conversation sous licence Creative Commons. Lis le article original.

ph-tech