En direct
Best of
Best of du samedi 9 au vendredi 15 novembre
En direct
Flash-actu
Articles populaires
Période :
24 heures
7 jours
01.

Energie : l'arrêt du nucléaire au Japon responsable de beaucoup plus de morts que la catastrophe de Fukushima

02.

Le sondage qui fait peur sur l’état intellectuel de la fonction publique

03.

Finkielkraut, apologiste du viol ? Bullshit au carré sur les réseaux sociaux

04.

Les hyper riches croulent sous des montagnes de cash mais l’excès de liquidités tue leur richesse

05.

Julie Graziani : « Criminaliser les idées et les mots, c’est empêcher de réfléchir »

06.

La fusion nucléaire pourrait-elle être notre bouée de sauvetage énergétique ?

01.

Notre-Dame de Paris : Jean-Louis Georgelin rappelle à l’ordre l’architecte des monuments historiques et lui demande de "fermer sa gueule"

02.

Crise (permanente) à l’hôpital : mais que faisons-nous donc de nos prélèvements obligatoires records ?

03.

Finkielkraut, apologiste du viol ? Bullshit au carré sur les réseaux sociaux

04.

Toujours plus… sauf sur le terrain idéologique : la diversité selon Delphine Ernotte

05.

Emmanuel Macron et sa névrose de l’ennemi

06.

Quatre ans après le Bataclan, la France désemparée face à la zone grise qui sépare islam politique et terrorisme

ça vient d'être publié
pépites > International
Dictature
Ouïghours : Xi Jinping a donné l'ordre d'être "sans pitié"
il y a 7 heures 7 min
light > Culture
Discrimination
L'actrice Mo'Nique accuse Netflix de la sous-payer car elle est une femme noire
il y a 7 heures 56 min
pépite vidéo > Culture
Pour les fans de la famille royale
The Crown : la saison 3 est disponible sur Netflix
il y a 8 heures 41 min
pépites > France
Noyau dur
Acte 53 des Gilets jaunes : 28.000 manifestants selon la police, 40.000 selon les organisateurs
il y a 10 heures 8 min
rendez-vous > Science
Atlantico Sciences
L'Inde veut aller explorer Vénus en 2023 ; Mars : les fluctuations de l’oxygène décontenancent la Nasa
il y a 10 heures 27 min
rendez-vous > Environnement
Atlantico Green
Dérèglement climatique : ce que la technologie pourrait apporter pour contenir les incendies géants
il y a 13 heures 52 min
décryptage > France
Un an déjà

Acte 53 des Gilets jaunes : statu quo en attendant décembre

il y a 14 heures 30 min
décryptage > International
Moderne... mais féroce

En Arabie Saoudite, « réforme » rime avec « répression »

il y a 14 heures 53 min
décryptage > France
Agriculture

Revenus désastreux des agriculteurs : et si les banques étaient juridiquement en partie responsables ?

il y a 14 heures 54 min
décryptage > Histoire
Bonnes feuilles

Comment la momie de Ramsès II a bénéficié d'une "seconde jeunesse" grâce à une exposition organisée à Paris en 1976

il y a 14 heures 56 min
pépites > Europe
Désastre
Venise : un milliard d'euros de dégâts ; une troisième montée des eaux attendue
il y a 7 heures 31 min
pépites > Santé
Drame
Deux tiers des Français ont déjà renoncé à se faire soigner
il y a 8 heures 18 min
pépite vidéo > France
Casseurs
Acte 53 des Gilets jaunes : d'importants dégâts sur la place d'Italie à Paris
il y a 9 heures 33 min
pépites > Politique
Baisse
Popularité : Emmanuel Macron perd un point en novembre
il y a 10 heures 20 min
décryptage > Culture
Atlantico Litterati

SOS Europe en détresse ?

il y a 13 heures 33 min
décryptage > Santé
Danger

Les super bactéries font encore plus de morts qu’on le croyait

il y a 14 heures 19 min
décryptage > Politique
Sectarisme à tous les étages

Ce discret courant souterrain qui fragilise puissamment nos démocraties

il y a 14 heures 36 min
décryptage > Economie
Un but bien défini

La politique économique de Trump, une politique parfaitement prévisible

il y a 14 heures 54 min
décryptage > International
Automne chinois

Hong Kong ou l’illustration que la Révolution de velours tchèque ne serait plus possible 30 ans après ?

il y a 14 heures 55 min
décryptage > Santé
Bonnes feuilles

Le cerveau : ce grand régulateur de la douleur

il y a 14 heures 56 min
© Reuters
Dans une lettre ouverte publiée le 27 juillet, Stephen Hawking et Elon Musk réclament l’interdiction des "robots tueurs".
© Reuters
Dans une lettre ouverte publiée le 27 juillet, Stephen Hawking et Elon Musk réclament l’interdiction des "robots tueurs".
jus de cerveau

Alerte aux robots tueurs : ce qu’oublient de prendre en compte Stephen Hawking, Elon Musk et autres sur les bienfaits potentiels de l’intelligence artificielle

Publié le 31 juillet 2015
Stephen Hawking, Elon Musk et pas moins d'un millier de scientifiques ont récemment signé une lettre ouverte appelant au contrôle des armes dotées d'une intelligence artificielle (IA). Ils appellent à mettre en place des procédures de contrôle afin de limiter une course à l'armement robotisé qu'ils jugent inévitable.
Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage...
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Laurent Alexandre
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage...
Voir la bio
Ajouter au classeur
Vous devez être abonné pour ajouter un article à votre classeur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Lecture Zen
Vous devez être abonné pour voir un article en lecture zen.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Stephen Hawking, Elon Musk et pas moins d'un millier de scientifiques ont récemment signé une lettre ouverte appelant au contrôle des armes dotées d'une intelligence artificielle (IA). Ils appellent à mettre en place des procédures de contrôle afin de limiter une course à l'armement robotisé qu'ils jugent inévitable.

Atlantico : Dans une lettre ouverte publiée le 27 juillet, Stephen Hawking et Elon Musk réclament l’interdiction des "robots tueurs". Avec près de 1000 autres signataires, ils dénoncent les dangers que peut représenter la création d'une intelligence artificielle, et mettent en garde contre une course à l'armement dotée d'une telle intelligence. Dans quel contexte intervient cette lettre ouverte ? Pourquoi l'intelligence artificielle cristallise-t-elle autant les peurs ? Faut-il réellement la craindre ? 

Laurent Alexandre : Depuis 6 mois, de nombreux scientifiques et industriels sont paniqués par la progression de la puissance informatique. Ils craignent l’utilisation de robots intelligents par les militaires et l’apparition d’automates hostiles à l’Humanité. Le fondateur de Deep Mind, récemment racheté par Google, qui est un leader de l’intelligence artificielle (IA), affirme que cette dernière peut menacer l’humanité dès le XXIe siècle.

Aujourd'hui, l'intelligence artificielle existe-t-elle ? Dans quels secteurs d'activité la retrouve-t-on ? Que peut-on en dire de positif ? 

Après des débuts chaotiques et beaucoup de faux espoirs, l’intelligence artificielle (IA) progresse désormais à vive allure. Il ne s’agit pas encore d’une IA ayant conscience d’elle­ même, mais elle est déjà capable de prodiges : la Google Car conduit de façon plus sûre que n’importe quel être humain; Watson, le système expert d’IBM, analyse en quelques minutes des centaines de milliers de travaux scientifiques cancérologiques qu’un oncologue mettrait trente-sept ans à lire... De plus en plus de tâches sont mieux effectuées par l’IA que par nous. Et ce n’est que le début : la puissance des serveurs informatiques est multipliée par 1 000 tous les dix ans.

Il faut bien comprendre qu’il existe deux types d’IA. L’IA faible qui n’a pas conscience d’elle-même et l’IA forte qui a des projets propres, évolue et sait qu’elle existe.

L’IA forte n’existe pas aujourd’hui et il existe des discussions à n’en plus finir entre spécialistes des sciences cognitives sur la possibilité d’en créer une avant 2050.

En revanche, l’IA faible est présente tout autour de nous. Google, la Google car, Itunes, Amazon… sont des IA faibles. L’IA va devenir ubiquitaire, elle va nous entourer.

Les gens de Google sont très optimistes.  Ils pensent que l’IA forte est proche et devrait écraser l’intelligence humaine dès 2045, selon Kurzweil. A cette date, l’intelligence artificielle sera, selon ce dirigeant de Google, 1 milliard de fois plus puissante que la réunion de tous les cerveaux humains et sera l’interfacé avec nos cerveaux.

"Dans environ quinze ans, Google fournira des réponses à vos questions avant même que vous ne les posiez. Google vous connaîtra mieux que votre compagne ou compagnon, mieux que vous-même probablement", a fièrement déclaré Ray Kurzweil, lequel est également persuadé que l’on pourra transférer notre mémoire et notre conscience dans des microprocesseurs dès 2045, ce qui permettrait à notre esprit de survivre à notre mort biologique. Ce sont ces perspectives vertigineuses qui expliquent les craintes actuelles.

Bill Gates lui-même est affolé par l’absence de réflexion politique sur les conséquences sociales de la fusion de l’intelligence artificielle et de la robotique. Il estime que les automates remplaceront d’ici à 2035 la majeure partie des métiers, y compris les professions de santé. Il a prévu par exemple que l’Intelligence artificielle remplacera les infirmières avant 20 ans. La montée en puissance de ces technologies  inquiète au sein même de Google, qui vient de créer un comité d’éthique consacré à l’intelligence artificielle. Il devra réfléchir à des interrogations qui concernent l’humanité tout entière : faut-­il mettre des limites à l’intelligence artificielle ? Comment la maîtriser ? Doit­-on l’interfacer à nos cerveaux biologiques ? 

 

Quels sont les secteurs qui peuvent en tirer un bénéfice maximum ? 

L’IA faible est déjà révolutionnaire. La Google car va bouleverser le monde des transports. Peugeot et Renault existeront-ils encore en 2030 ? C’est peu probable si ils ne mettent pas un pied dans la Silicon Valley !

L’IA faible va révolutionner la médecine. D’ici à 2030, plus aucun diagnostic médical ne pourra être fait sans IA. Il y aura un million de fois plus de données dans un dossier médical qu’aujourd’hui. Cette révolution est le fruit du développement parallèle de la génomique, des neurosciences et des objets connectés. L’analyse complète de la biologie d’une tumeur exige, par exemple, 100 millions de milliards d’opérations. De nombreux capteurs électroniques vont bientôt pouvoir "monitorer" notre santé : des objets connectés, comme les lentilles Google pour les diabétiques, vont ainsi produire des milliers puis des milliards d’informations chaque jour pour chaque patient. « Google X », le laboratoire secret, met au point un système de détection ultra précoce des maladies par des nanoparticules qui vont aussi générer une quantité monstrueuse d’informations.

Comprendre les maladies du cerveau d’un patient supposera d’injecter des quantités phénoménales de données dans le dossier médical. Les médecins vont affronter une véritable « tempête numérique » : ils devront interpréter des milliers de milliards d’informations quand ils ne gèrent aujourd’hui que quelques poignées de données.

C’est l’IA faible qui va permettre de tirer parti de toutes ses données. En chirurgie aussi, l’IA faible va changer la donne. L’intelligence artificielle et la robotique progressent désormais si vite que les prochaines générations de robots chirurgicaux vont dépasser puis remplacer les chirurgiens. L’IA va nous permettre de vivre plus longtemps.

 

Où en sommes-nous dans la création d'une super intelligence artificielle ? Quels dangers cela pourrait-il représenter ? 

Fabriquer une super intelligence suppose plus qu’une grosse capacité de calcul. Il faut également doter le programme d’une capacité à raisonner par lui-même et être conscient de sa propre existence. Personne n’a la moindre idée des technologies nécessaires pour obtenir cela. Peu de chercheurs envisagent que cela soit possible avant 2 ou 3 décennies.

La crainte est que la super-intelligence artificielle ne devienne hostile. Elle aura bien sur accès à Internet…. Or, il existe des milliers d’articles expliquant qu’il faudra interdire les IA fortes ou les débrancher.

Toute espèce intelligente (biologique ou artificielle) a comme premier objectif, sa propre survie. On peut craindre que l’IA forte se prémunisse contre notre volonté de la supprimer en cachant ses intentions. Comme l’ordinateur HAL 9000 dans le film de Stanley Kubrick « 2001, l’odyssée de l’espace ».

Nick Bostrom estime que l’IA forte pourrait à partir d’un certain seuil devenir 1 million de fois plus intelligente et puissante en quelques heures. Rapidement, nous ne pourrions même pas comprendre ses plans ! 

 

Les commentaires de cet article sont à lire ci-après
Commentaires (4)
Ecrire un commentaire
Vous devez être abonné pour rédiger un commentaire.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.
*Toute validation est définitive, vous ne pourrez pas rééditer votre commentaire.
REVERJOVIAL
- 31/07/2015 - 11:33
L'homme et Dieu
C'est le rêve de l'homme être immortel, qui va devenir enfin possible, il va se créer lui même Dieu et ira ensuite conquérir l'Univers, le temps et l'espace n'auront plus d'emprise sur lui.
REVERJOVIAL
- 31/07/2015 - 11:33
L'homme et Dieu
C'est le rêve de l'homme être immortel, qui va devenir enfin possible, il va se créer lui même Dieu et ira ensuite conquérir l'Univers, le temps et l'espace n'auront plus d'emprise sur lui.
zouk
- 30/07/2015 - 10:10
Intelligence artificielle
Le danger le plus grave serait de connecter le cerveau à un dispositif encore à inventer, probablement et heureusement impossible: toute tentative de se substituer à Dieu a toujours débouché sur une barbarie absolue: persécutions antichrétiennes de Vespasien, Inquisition, islamisme.... la dernière étant la plus sanglante, progrès oblige. Le développement de l'intelligence artificielle est inéluctable, saurons nous rejeter la tentation de nous faire Dieu?