


Atlantico : Dans son livre "Le meilleur des mondes", Aldoux Huxley anticipait le fait que la société deviendrait bientôt prisonnière de son jusqu’au boutisme scientifique. Sommes-nous proches de ce scénario à l’heure actuelle ?
Anders Sandberg : D’une certaine manière, on peut dire que toutes les sociétés sont prisonnières de leur propre logique, qu’elle soit scientifique, religieuse ou culturelle. C’est tout simplement plus évident lorsqu’il s’agit de la science car son rôle en société se constate au quotidien. Par contre, il est vrai d’affirmer que plus nous maîtrisons la fabrication d’objets automatisés, plus nous leur confions des responsabilités qui étaient jusque-là strictement réservées aux êtres humains. Les machines peuvent aujourd’hui prendre des décisions et des initiatives, comme c’est déjà le cas avec les logiciels de flash-trading. Si ces avancées technologiques sont bien utilisées, elles ne devraient pas heurter l’autonomie des hommes outre-mesure, mais il faut rappeler qu’hélas la conception de toute technologie est imparfaite à l’origine et ne peut se soucier par nature de l’ensemble complexe et divers de nos besoins. On peut évoquer pour illustrer ce propos les réseaux sociaux qui refusent de reconnaître le caractère pluriel de notre identité ou encore les systèmes de correction automatique qui nous induisent parfois en erreur, ce qui prouve selon moi que malgré leur sophistication, ces systèmes ont de fait une compréhension imparfaite de notre identité et de nos intérêts.
Il ne faudrait pas tomber cependant dans le techno-scepticisme, dans le sens où le progrès scientifique peut apporter confort et sécurité : nous, Européens, vivons dans une ère sans précédente de paix, de prospérité et d’autonomie croissante. Cependant, la probabilité d’un usage mauvais de la technologie peut déboucher sur des conséquences gravissimes, tout particulièrement dans notre époque d’interdépendance économique. Le déclenchement d’une guerre moderne pourrait en effet causer des milliers de pertes quand l’on sait jusqu’où peut aller aujourd’hui la science militaire, et le scénario d’un gouvernement totalitaire fonctionnant sur le principe de la surveillance automatisée, via la vidéo-sécurité ou les réseaux sociaux, n’est pas totalement impensable, bien que cela soit aujourd’hui loin de nous à mon avis.
Je ne suis donc pas tellement effrayé par la technologie en tant que concept, mais par notre tendance à fabriquer des ensembles technologiques fragiles et mal-pensés. Cela soulève des problèmes tant politiques qu’institutionnels ou économiques.
De récentes recherches tendent à prouver que l’intelligence artificielle deviendra potentiellement supérieure à l’intelligence humaine. Devons-nous considérer que même le progrès technologique doit avoir ses propres limites ?
Il n’y a selon pas de différences fondamentales entre technologie et biologie d’un point de vue de la performance : nous pouvons construire des machines, nous pouvons les intégrer à des organismes vivant (on pense aux jambes bioniques NDLR) ou même créer des organismes génétiquement modifiés. La seule différence fondamentale, même si elle n’est pas des moindres, concerne l’origine de ces organismes.
A terme, il y a des limites à ce qui peut être fait dans notre univers, bien qu’elles soient très très éloignées de nous actuellement. Sur le plan scientifique, il est donc plus que prématuré d’imaginer des limites à ce que nous pouvons faire.
La vraie question est bien sûr de se demander jusqu’où l’intelligence artificielle pourra se développer et à partir de quand elle dépassera les compétences humaines. Les machines peuvent s’avérer aujourd’hui extrêmement performantes dans des domaines précis et bien délimités comme les mathématiques, la reconnaissance d’images ou la conduite d’un véhicule, mais elles sont encore incapables, contrairement aux humains, de faire face à un problème qui n’aura pas préalablement été intégré à leur logiciel. Il est aujourd’hui impossible d’anticiper les progrès futurs à ce niveau, ce qui laisse entendre que l’émergence d’une machine intelligente et autonome n’est pas immédiate.
Le plus important est de découvrir si les progrès effectués par l'Intelligence Artificielle (IA) peuvent être lents ou rapides par rapport aux progrès humains. Si les machines peuvent devenir rapidement intellectuellement plus puissantes, nous n'aurons pas la chance de corriger les défauts dans leur conception, notamment leurs motivations. Cela signifie que le futur sera dirigé par des esprits fondamentalement déments, ou qui ont des objectifs incompatibles avec la survie humaine. Cependant, si l'explosion de l'intelligence des machines est plus lente, les humains peuvent aider cette dernière à être plus compatible avec leur survie et, avec un peu de chance, recueillir les bienfaits d'un monde partagé avec des esprits considérablement plus puissants. Mais pour l'instant, nous ne savons pas ce quelle option est la plus susceptible de se produire, ou même comment le découvrir : c'est l'un des principaux défis que nous voulons explorer dans nos recherches.
Doit-on par conséquent envisager l'instauration de règles éthiques afin de contrôler l'avancée du progrès technologique ?
Les progrès n'ont jamais été placés sous contrôle, ou n'ont jamais été susceptibles de l'être car cela impliquerait que les découvertes soient connues à l'avance. Mais nous pouvons prévoir, et viser la réduction des risques. Certaines technologies sont très dangereuses, et devraient être approchées avec précaution. L'idéal serait de les aborder avec d'autres technologies plus sûres, qui ont déjà été développées dans un premier temps. Parfois, ralentir le progrès peut être une bonne idée. Mais les prévisions peuvent aussi impliquer de travailler dur sur le développement de technologies prometteuses, ou d'enquêter sur ce dont nous avons besoin de découvrir. Si l'on fait des erreurs auxquelles on peut survivre, elles sont alors un excellent moyen d'apprendre.
Nous avons besoin pour l'instant de plus d'enquêtes sur la manière dont nous pouvons fabriquer des logiciels intelligents qui ont des motivations intelligentes, ou sur la manière de les créer pour leur apprendre à l'être. C'est une problématique passionnante et complexe, qui se situe au carrefour de la philosophie et de l'informatique.
Propos recueillis par Théophile Sourdille