L’intelligence artificielle fait encore plus fort que la loi de Moore sur les microprocesseurs<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
International
L'IA va se développer, donc va consommer fatalement plus d'énergie, voire de matériel que quand elle n'existait pas.
L'IA va se développer, donc va consommer fatalement plus d'énergie, voire de matériel que quand elle n'existait pas.
©OLIVIER MORIN / AFP

Progression foudroyante

On a découvert que les chatbots de l'IA s'améliorent plus rapidement que les puces informatiques.

Pierre Beyssac

Pierre Beyssac

Pierre Beyssac est Porte-parole du Parti Pirate

Voir la bio »

Atlantico : On a découvert que les chatbots de l'IA s'améliorent plus rapidement que les puces informatiques. Est-ce que cette évolution va permettre de régler les problèmes de pénuries de puces informatiques ?

Pierre Beyssac : En partie : cela peut potentiellement réduire la pression sur les besoins en puces graphiques (GPU), très utilisées pour l'IA, en permettant leur substitution par des architectures moins gourmandes.

On peut déjà faire tourner, en usage, des IA "simples" sur des téléphones mobiles, des ordinateurs portables ou des ordinateurs très légers (Raspberry). Les besoins en ressources ont été grandement réduits depuis 18 mois par le talent de nombreux chercheurs et développeurs de logiciels libres.

Plus globalement, pensez-vous que les résultats peuvent nous permettre d'aller vers une technologie moins gourmande en ressources ?

Certainement : cette tendance va s'accentuer. Nous pourrions assister à une double tendance, des IA légères suffisantes pour les besoins les plus courants, et à faible consommation de ressources ; et quelques IA lourdes entraînées par des grandes sociétés aux poches profondes, qui semblent être le choix de Mark Zuckerberg chez Meta.

On ne sait pas quelles sont les limites de la technologie actuelle des IA traitant le langage naturel. Il en existe probablement, ce qui les empêchera de progresser telles quelles "à l'infini". Nous devrions donc tôt ou tard observer une stagnation des performances, qui mettra un terme à la course brute aux ressources, dans l'attente de nouvelles innovations algorithmiques pour dépasser l'écueil.

Mais de telles performances ne risquent-t-elles pas d'être encore plus gourmande en terme d'énergie ?

L'IA va se développer, donc va consommer fatalement plus d'énergie, voire de matériel que quand elle n'existait pas.

Les optimisations permettent de réduire l'impact, mais en rendant la technologie plus économe en ressources, favorisent inversement le développement des usages, donc une réaugmentation d'impact. Il est convenu de parler d'« effet rebond ». Au pire, celui-ci peut même aller jusqu'à engloutir le gain initial de l'optimisation. On parle alors de « paradoxe de Jevons », du nom de l'économiste qui l'a théorisé.

Mais, s'agissant de technologies nouvelles, la croissance des usages est largement attribuable à la réduction de la fracture numérique, objectif défendu par tous. Les optimisations restent donc bénéfiques.

Enfin, il ne faut pas négliger les transferts d'impact et externalités positives. Par exemple si l'IA me permet de ne passer que 15 minutes au lieu de 2 heures sur mon ordinateur, en m'assistant dans ma tâche, j'économise de l'énergie.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !