Atlantico, c'est qui? c'est quoi ?
Jeudi 26 Avril 2018 | Créer un compte | Connexion
Extra

Ce que nous devons redouter de l’intelligence artificielle au service des “robots-tueurs”

La réalité serait-elle sur le point de rattraper la fiction? Le PDG de Tesla, Elon Musk, a prévenu des dangers imminents de l'intelligence artificielle et souhaite que des mesures soient prises au plus vite par les Nations-Unies.

iRobot

Publié le
Ce que nous devons redouter de l’intelligence artificielle au service des “robots-tueurs”

Associé à plus de 100 experts de l’intelligence artificielle, Elon Musk fait aujourd'hui pression sur les Nations-Unies afin légiférer contre les armes autonomes. En quoi consistent ces armes? Pourquoi sont-elles dangereuses et quelle est leur présence actuelle dans le monde? 

Frank Decloquement : « L'intelligence artificielle est un risque existentiel fondamental pour la civilisation humaine, et je ne pense pas que les gens apprécient complètement cela » a déclaré dernièrement Elon Musk. Et ce qu'il a vu relève « d'un problème bien plus effrayant », avait rapporté le site de la radio publique américaine NPR. Le dilemme est clairement posé : l'intelligence artificielle (I.A.) et la robotique font toutes deux autant rêver les scientifiques et les industriels, qu'elles suscitent une peur diffuse auprès du grand public.

La faute sans doute à certaines cassandres, mais aussi aux prophéties apocalyptiques brillamment popularisées dans le cadre de certaines franchises d’anticipations cinématographiques. Au premier rang duquel le film « Robocop » initialement mis en scène par le réalisateur néerlandais Paul Verhoeven tient une place toute particulière. Mais aussi la série des « Terminator », cette franchise planétaire culte initiée en son temps par le réalisateur à succès James Cameron. A ce propos, qui ne conserve pas dans un coin sa mémoire, le souvenir anxieux et l’appréhension chevillée au corps de cette fameuse entité artificielle maléfique nommée « Skynet » ? Car si ces technologies promettent bel et bien de révolutionner à l’emporte-pièce nos habitats, nos villes, nos transports, nos sciences médicales, ou encore les conditions de notre sécurité collective, elles menacent corrélativement de transformer radicalement la conduite de la guerre et la nature même des prochains conflits. Mais aussi de permettre la mise en œuvre de moyens de contrôle accrus et de répressions inédites sur les populations civiles. D’une puissance inégalée à ce jour nous promet-on !  Réalité ou fantasmes ? Discours suranné ? Faut-il réellement s’inquiéter ? C’est à ces questions fondamentales qu’ont tenté de répondre récemment un collectif de spécialistes, de renommée planétaire pour certains d’entre eux.

 
Bien placés pour présager les dangers liés à l’émergence très prochaine des « cyborgs-tueurs » et autres machines offensives, des scientifiques avaient déjà produit courant 2015, une première missive d’alerte à destination des autorités publiques des Etats occidentaux. Celle-ci avait eu un certain retentissement puisque l'ONU avait décidé d'inclure cette question à son agenda. Le lundi 21 août dernier, 116 responsables d'entreprises cette fois ; tous spécialistes avertis dans la robotique ou l'intelligence artificielle ; ont réitéré cette première initiative et adressé une lettre ouverte diffusée par le « Future of Life Institute », un organisme non lucratif basé aux États-Unis, directement aux Nations Unies elle-même. Plaidant pour une interdiction pure et simple de ces fameuses « armes autonomes », des machines offensives programmables et en principe capables de sélectionner et de tuer des cibles prédéfinies, sans intervention humaine. Une interdiction drastique, au même titre que les armes chimiques, les armes biologiques ou le clonage humain… Parmi ces spécialistes emmenés par l’emblématique PDG américain des firmes « Tesla » et « SpaceX » Elon Musk, on note également la présence de six Français très au fait des réalités que recouvrent ces technologies robotiques hybrides, ainsi que l'I.A à usage militaire. On trouve aussi Mustafa Suleyman, de la société britannique « DeepMind », détenue par Google.
 

Quelles sont, aujourd'hui, les deux écoles de pensée autour de la question de l'intelligence artificielle?

En premier lieu, il est peut-être nécessaire de rappeler à nos lecteurs que la technologie émergente de« l'intelligence artificielle », ou « I.A », croise plusieurs champs d’applications technologiques, en capacité de simuler les processus cognitifs humains. « L'intelligence artificielle » est donc une technologie comme une autre, au même titre que l'électricité ou l’Internet le furent en leur temps. Il n’est pas nécessaire d’en avoir peur en soi, car en définitive tout dépendra de ce que l'on en fera... Et pour cela, il est peut-être nécessaire de s’éloigner des visions par trop « catastrophistes » ? À l’image du concept de « singularité » : ce moment damné où l'intelligence artificielle serait supposément en capacité de dépasser l'intelligence humaine, tout en engendrant un progrès technologique exponentiel et imprévisible propre à permettre la « rébellion des machines intelligentes » contre leurs propres créateurs.
 
Plus prosaïquement, apparue dans le courant des années 60, la recherche s'est beaucoup développée depuis cette époque. Au point de multiplier très récemment les applications intégrant de nouvelles avancées décisives en la matière : « voitures autonomes », « diagnostics médicaux »« assistants personnels »« finance algorithmique » et « prédictive »« robots industriels »« jeux de simulation », etc... L'explosion formidable de la puissance de calcul, couplée à l’évolution exponentielle de la puissance de stockage mémoire dans des machines, a fait basculer l'I.A courant 2010, d'un classique des livres d’anticipation à une réalité de plus en plus concrète pour chacun :« Deep-learning »« algorithmes prédictifs »« réseaux neuronaux » ou encore « ordinateurs quantiques ». Autant d'espoirs pour les tenants du « transhumanisme » et de « la singularité » pour lesquels les enjeux scientifiques et sociétaux sont premiers. Autant de craintes pour de nombreuses autres personnalités issues de l’univers de la « high-tech ». À l’image d’un Stephen Hawking, d’un Bill Gates ou d’un Elon Musk qui pointent d’ores et déjà les risques éthiques et démiurgiques inhérents à une intelligence artificielle rendue par trop « autonome » ou « consciente », et le fragile équilibre « bénéfices-risques » quant à l'emploi futur « d’entités intelligentes offensives » non humaines…
 
Conscient qu’il sera à l’avenir plus acceptable pour les chefs militaires du futur, de déployer sur les prochains champs de bataille des machines offensives rendues « intelligentes » plutôt que des hommes armés, le problème réside au fond dans le fait d’octroyer cette possibilité de principe à une machine de pouvoir tuer un être humain de son propre chef… « Science sans conscience » prédisent certains : chacun connait fort bien la musique. Cet augure est tout simplement inacceptable pour les tenants de la prudence dans l’usage de ces technologies hybrides, puisque ceux-ci refusent catégoriquement que des civils puissent être tués par des machines offensives. Refusant par là même l’ouverture de la boite de Pandore, et préférant de loin une I.A en capacité de servir l’humanité, plutôt que de la voir contribuer peu ou prou à la détruire à travers un usage dévoyé…
 

Quels sont les limites, actuellement, de l'intelligence artificielle?

Les choses évoluent très vite en la matière. Et les acteurs politiques sont particulièrement fascinés par les possibilités qu’offrent les technologies robotiques et les progrès fulgurants en matière d'I.A. Toutefois, peu sont vraiment au fait des réelles avancées du secteur. Ce qui est particulièrement alarmant pour les tenants de la « prudence technologique » aujourd'hui, c'est justement le fait qu’ils considèrent tous l’I.A comme une technologie d’ores et déjà mature… Pour l'heure, on dispose encore de drones pilotés par des opérateurs humains qui doivent décider derrière leurs postes de pilotage déportés parfois à des milliers de kilomètres de la zone d’action, de tuer ou de ne pas le faire le cas échéant. Mais le seuil pour permettre à une machine de prendre cette décision par elle-même ; en fonction des informations qu’elle dispose au moment crucial du tir ; est désormais très ténue. Or, on perçoit bien que les demandes des décideurs au cœur des Etats et des forces armées sont de plus en plus pressantes. Un jour ou l’autre, des entreprises pourront finir par céder aux avances qui leur sont faites et passeront à l’acte. Classiquement, les militaires et les firmes qui travaillent en bonne intelligence ne communiquent pas sur le degré d’avancée de leurs recherches communes. Mais pour se faire une idée, il assez simple de considérer les progrès faramineux dans le domaine civil, puis d'imaginer que l’on puisse équiper ces robots « civils » avec des armes létales derniers cris. 
 
Quand on parle de « robots tueurs », nombreux sont ceux d’entre nous qui imaginent des cyborgs d’aspects « humanoïdes », à l’image du rustique T800 dans le film de James Cameron. Or les voitures ou les drones sont aussi des robots… Sur l'apparence « humanoïde »que pourraient revêtir certaines machines autonomes, il y a encore beaucoup d’étapes à franchir pour y parvenir. Et cela, en outre, compte tenu des problèmes liés à la stabilité générale du dispositif et le fait que les armes exercent de fortes poussées en phase de tir sur leurs porteurs. Pour les automobiles, les drones et les chars, le gap est lui minime. Il suffit d’ores et déjà y embarquer des armes existantes et de leur donner la capacité de délivrer « intelligemment » le feu en toute autonomie, et sans opérateurs humains. Ce sont sans aucun doute ces robots qui seront développés en priorité par les consortiums industriels. L'écrivain à succès Isaac Asimov avait imaginé quatre lois fondamentales de la robotique, dans l’objectif d’empêcher justement des dérives futures dans l’usage des machines offensives autonomes. On réalise aujourd’hui qu’il ne s’agit que d’une base de réflexion à partir de laquelle les développeurs pourront travailler à l’application, lors de la programmation des machines robotisées de ce type. Du côté juridique, chacun perçoit bien qu'il existe un flou qu’il faudra tôt ou tard combler concernant l’usage des armes offensives autonomes.
 
Commentaires

Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.

  • Par J'accuse - 29/08/2017 - 17:24 - Signaler un abus C'est de la com'

    Il faut faire parler de soi, de son entreprise, de ses projets, et le catastrophisme, à l'image des écolos avec les changements climatiques supposés, sont la meilleure voie pour ça. Au XXe siècle, le monde risquait de disparaître sous les bombes atomiques; finies les bombes, alerte au CO2 et à l'AI ! Nous allons finir à la fois noyés dans les océans et massacrés par Terminator.

  • Par gerint - 29/08/2017 - 22:09 - Signaler un abus Le développement de l'IA est inéluctable

    Mais c'est déjà en route depuis des années et â transformé pas mal de métiers. Cela s'accélère et il faudra que l'activité humaine soit complémentaire de l'IA pour survivre je crois. Nous devrions pouvoir avoir plus de bénéfices que d'inconvénients mais il va falloir que les politiques se saisissent des problèmes qui pour le moment les dépassent. Si un jour l'IA devenait consciente d'elle-même ce qui ne paraît pas impensable nous aurions du souci à nous faire

Pour commenter :

Depuis son lancement Atlantico avait fait le choix de laisser ouvert à tous la possibilité de commenter ses articles avec un système de modération a posteriori. Sous couvert d'anonymat, une minorité d'internautes a trop souvent détourné l’esprit constructif et respectueux de cet espace d’échanges. Suite aux nombreuses remarques de nos lecteurs, nous avons décidé de réserver les commentaires à notre communauté d’abonnés.

Franck DeCloquement

Franck DeCloquement est praticien et expert en intelligence économique et stratégique (IES). Membre fondateur du Cercle K2 et ancien de l’Ecole de Guerre Economique de Paris (EGE), il est en outre professeur à l'IRIS (Institut de Relations internationales et stratégiques) en "Géo-économie et intelligence stratégique". Il enseigne également la "Géopolitique des médias" en Master 2 recherche "Médias et Mondialisation", à l'IFP (Institut français de presse) de l'université de Paris II Panthéon-Assas. 

Franck DeCloquement est aussi spécialiste sur les menaces Cyber-émergentes liées aux actions d'espionnage économique et les déstabilisations de nature informationnelle et humaine. Il est en outre intervenu pour la SCIA (Swiss Competitive Intelligence Association) à Genève, aux assises de la FNCDS (Fédération Nationale des Cadres Dirigeants et Supérieurs), à la FER (Fédération des Entreprises Romandes à Genève) à l’occasion de débats organisés par le CLUSIS - l'association d’experts helvétiques dédiée à la sécurité de l'information - autour des réalités des actions de contre-ingérence économique et des menaces dans la sphère digitale. 

Voir la bio en entier

Je m'abonne
à partir de 4,90€