L'IA pourrait être à l'origine de notre incapacité à entrer en contact avec des civilisations extraterrestres<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Un vaisseau de la NASA - Photo AFP
Un vaisseau de la NASA - Photo AFP
©ROBYN BECK / AFP

Exploration spatiale

L'intelligence artificielle progresse très rapidement. Certains scientifiques s'inquiètent aujourd'hui de l'obstacle qu'elle pourrait représenter en matière de colonisation spatiale.

Michael Garret

Michael Garret

Michael Garret est chercheur en astrophysique à l'académie Sir Bernard Lovell et directeur du Jodrell Bank Centre for Astrophysics, Université de Manchester.

Voir la bio »

L'intelligence artificielle (IA) a progressé à un rythme effréné au cours des dernières années. Certains scientifiques envisagent désormais le développement d'une superintelligence artificielle (ASI) - une forme d'IA qui non seulement surpasserait l'intelligence humaine, mais ne serait pas limitée par la vitesse d'apprentissage des humains.

Et si cette étape n'était pas seulement une réussite remarquable ? Et si elle représentait également un formidable goulot d'étranglement dans le développement de toutes les civilisations, un goulot d'étranglement si difficile à franchir qu'il compromet leur survie à long terme ?

Cette idée est au cœur d'un article de recherche que j'ai récemment publié dans Acta Astronautica. L'IA pourrait-elle être le "grand filtre" de l'univers, un seuil si difficile à franchir qu'il empêche la plupart des formes de vie d'évoluer vers des civilisations spatiales ?

Ce concept pourrait expliquer pourquoi la recherche d'intelligence extraterrestre (Seti) n'a pas encore permis de détecter les signatures de civilisations techniques avancées ailleurs dans la galaxie.

L'hypothèse du grand filtre est, en fin de compte, une solution proposée au paradoxe de Fermi. Il s'agit de savoir pourquoi, dans un univers suffisamment vaste et ancien pour abriter des milliards de planètes potentiellement habitables, nous n'avons détecté aucun signe de civilisations extraterrestres. L'hypothèse suggère qu'il existe des obstacles insurmontables dans l'évolution des civilisations qui les empêchent de devenir des entités spatiales.

Je pense que l'émergence de l'ASI pourrait être un tel filtre. Les progrès rapides de l'IA, qui pourraient conduire à l'ASI, pourraient se croiser avec une phase critique du développement d'une civilisation - la transition d'une espèce mono-planétaire à une espèce multiplanétaire.

C'est là que de nombreuses civilisations pourraient s'effondrer, l'IA progressant beaucoup plus rapidement que notre capacité à la contrôler ou à explorer et peupler durablement notre système solaire.

Le défi de l'IA, et plus particulièrement de l'ASI, réside dans sa nature autonome, auto-amplifiée et améliorée. Elle possède le potentiel d'améliorer ses propres capacités à une vitesse qui dépasse notre propre évolution sans IA.

Le risque de dérapage est énorme, entraînant la chute des civilisations biologiques et de l'IA avant même qu'elles n'aient la chance de devenir multiplanétaires. Par exemple, si les nations s'appuient de plus en plus sur des systèmes d'IA autonomes qui se font concurrence et leur cèdent du pouvoir, les capacités militaires pourraient être utilisées pour tuer et détruire à une échelle sans précédent. Cela pourrait conduire à la destruction de toute notre civilisation, y compris des systèmes d'IA eux-mêmes.

Dans ce scénario, j'estime que la longévité typique d'une civilisation technologique pourrait être inférieure à 100 ans. C'est à peu près le temps qui s'écoule entre le moment où nous sommes capables de recevoir et de diffuser des signaux entre les étoiles (1960) et l'émergence estimée de l'ASI (2040) sur Terre. Ce délai est alarmant si on le compare à l'échelle de temps cosmique, qui est de plusieurs milliards d'années.

Cette estimation, introduite dans des versions optimistes de l'équation de Drake - qui tente d'estimer le nombre de civilisations extraterrestres actives et communicantes dans la Voie lactée - suggère qu'à tout moment, il n'y a qu'une poignée de civilisations intelligentes dans l'espace. De plus, comme nous, leurs activités technologiques relativement modestes pourraient les rendre difficiles à détecter.

Un appel à la vigilance

Cette recherche n'est pas seulement une mise en garde contre une catastrophe potentielle. Elle constitue un signal d'alarme pour l'humanité, qui doit mettre en place des cadres réglementaires solides pour guider le développement de l'IA, y compris des systèmes militaires.

Il ne s'agit pas seulement d'empêcher l'utilisation malveillante de l'IA sur Terre, mais aussi de veiller à ce que l'évolution de l'IA soit compatible avec la survie à long terme de notre espèce. Cela suggère que nous devons consacrer davantage de ressources pour devenir le plus rapidement possible une société multi-planétaire - un objectif qui est resté en sommeil depuis l'époque grisante du projet Apollo, mais qui a récemment été ravivé par les progrès réalisés par les entreprises privées.

Comme l'a fait remarquer l'historien Yuval Noah Harari, rien dans l'histoire ne nous a préparés à l'impact de l'introduction sur notre planète d'entités super-intelligentes non conscientes. Récemment, les implications de la prise de décision autonome de l'IA ont conduit d'éminents leaders dans ce domaine à demander un moratoire sur le développement de l'IA, jusqu'à ce qu'une forme responsable de contrôle et de régulation puisse être introduite.

Mais même si tous les pays acceptaient de se conformer à des règles et à une réglementation strictes, il serait difficile de maîtriser les organisations malhonnêtes.

L'intégration de l'IA autonome dans les systèmes de défense militaire doit être un sujet de préoccupation particulier. Il est d'ores et déjà prouvé que les humains renonceront volontairement à des pouvoirs importants au profit de systèmes de plus en plus performants, parce qu'ils peuvent accomplir des tâches utiles beaucoup plus rapidement et efficacement sans l'intervention de l'Homme. Les gouvernements sont donc réticents à réglementer dans ce domaine, étant donné les avantages stratégiques qu'offre l'IA, comme cela a été démontré récemment et de manière dévastatrice à Gaza.

Cela signifie que nous sommes déjà dangereusement proches d'un précipice où les armes autonomes fonctionnent au-delà des limites éthiques et contournent le droit international. Dans un tel monde, l'abandon du pouvoir aux systèmes d'IA afin d'obtenir un avantage tactique pourrait, par inadvertance, déclencher une chaîne d'événements hautement destructeurs qui s'intensifieraient rapidement. En un clin d'œil, l'intelligence collective de notre planète pourrait être anéantie.

L'humanité se trouve à un moment crucial de sa trajectoire technologique. Nos actions actuelles pourraient déterminer si nous deviendrons une civilisation interstellaire durable ou si nous succomberons aux défis posés par nos propres créations.

L'utilisation de Seti comme lentille à travers laquelle nous pouvons examiner notre développement futur ajoute une nouvelle dimension à la discussion sur l'avenir de l'IA. Il nous appartient à tous de veiller à ce que, lorsque nous atteindrons les étoiles, nous le fassions non pas comme une mise en garde pour d'autres civilisations, mais comme une lueur d'espoir - une espèce qui a appris à s'épanouir aux côtés de l'IA.


The ConversationLa version originale de cet article a été publiée sur The Conversation.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !