Mais jusqu’à quel point la taille des ordinateurs va-t-elle se réduire ?<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Mais jusqu’à quel point la taille des ordinateurs va-t-elle se réduire ?
©Reuters

Invisibilité

Au cours des cinquante dernières années, la taille des ordinateurs n'a cessé de se réduire, favorisant ainsi d'importantes avancées scientifiques. Une tendance qui semble sur le point de trouver ses limites.

Jean-Gabriel Ganascia

Jean-Gabriel Ganascia

Jean-Gabriel Ganascia est professeur à l'université Pierre et Marie Curie (Paris VI) où il enseigne principalement l'informatique, l'intelligence artificielle et les sciences cognitives. Il poursuit des recherches au sein du LIP6, dans le thème APA du pôle IA où il anime l'équipe ACASA .
 

Voir la bio »

Atlantico : Les têtes pensantes de la Silicon Valley sont aujourd'hui toutes d'accord pour signer le décès de la loi Moore : on ne pourra plus produire, à l'avenir, de processeurs continuellement plus petits, et la taille devrait même trouver des limites. Les nouvelles technologies permettant d'augmenter la puissance des processeurs, à défaut de diminuer leur taille (microprocesseurs quantiques ou 3D), sont-elles suffisamment prometteuses ?

Jean-Gabriel GanasciaÉmise en 1965 par Gordon Moore, directeur de la société Intel, la loi de Moore s’observe depuis 1959. Elle stipule que le nombre de composants électroniques sur un processeur se multiplie par deux tandis que, corrélativement, la vitesse augmente d’un facteur équivalent et le coût diminue à peu près du même facteur. Cela explique le développement extraordinaire des technologies de l’information au cours des cinquante dernières années.

On doit noter que cette loi n’a d’autre fondement qu’un constat empirique : les performances des processeurs s’accrurent effectivement de façon exponentielle pendant plus de cinquante ans en doublant tous les 18 mois ou tous les deux ans, selon les formulations et selon les époques. Or, à force de diminuer, la dimension des composants électroniques risque d’approcher celle des atomes, limite difficilement franchissable. Certain pensent donc que la loi de Moore aura un terme. On commence déjà à s’apercevoir que le rythme de croissance des processeurs se tasse. Cela veut-il dire que la loi de Moore atteint son extremum ? C’est une question ouverte à laquelle il est encore difficile de donner une réponse tranchée, et cela pour plusieurs raisons. D’un côté, la multiplication des processeurs parallèles peut compenser en partie la relative stagnation des performances des processeurs. D’un autre côté, certains imaginent de nouveaux paradigmes fondés soit sur l’utilisation de nouveaux matériaux, comme le germanane ou le graphène, soit sur d’autres agencements des composants qui se répartiraient sur trois dimensions au lieu de deux aujourd’hui, soit enfin de nouveaux paradigmes de calculs, comme par exemple l’ordinateur quantique qui changerait radicalement la nature des processeurs. Cependant, pour l’heure, mis à part la mise en parallèle de grandes quantités de processeurs, ce qui accroit effectivement les performances, aucune des autres solutions envisagées n’est suffisamment aboutie pour affirmer avec certitude que la loi de Moore se poursuivra de façon indéfinie. 

Aujourd'hui, environ 2% de l'énergie mondiale serait utilisée par l'informatique, alors qu'on amorce une informatisation du monde par l'internet des objets. Le développement scientifique de l'informatique est-il trop avancé par rapport à nos capacités énergétiques pour lancer ce processus ?

On doit noter qu’outre l’augmentation des performances des processeurs, la loi de Moore portait implicitement en elle une équation selon laquelle la diminution de taille des processeurs allait de pair avec leur plus grande rapidité et avec la baisse de consommation électrique. Cela tenait à ce que les distances à parcourir dans le processeur devenant plus faibles, les délais de transmission et les pertes électriques diminuaient d’autant.

Or, la mise en parallèle de grands nombres de processeurs, seule solution tangible pour poursuivre à coup sûr la loi de Moore, s’accompagne d’une augmentation des pertes électriques dans les échanges entre processeurs, ce qui correspond à la fois à un échauffement et à une consommation électrique accrue.

Il s’en suit qu’aux limites physiques à la capacité de miniaturisation des composants électroniques et des processeurs, s’ajouteront certainement des pertes énergétiques qui renchériront les coûts de fonctionnement et nécessiteront un refroidissement, lui aussi coûteux, tout en ayant des effets néfastes au plan écologique.

Bref, là où l’informatique permit, pendant longtemps, des gains énergétiques, car cela aidait à rationaliser la production tout en limitant les déplacements avec des vidéo-conférences, aujourd’hui, nous voyons que les progrès peuvent aussi être synonymes d’une très forte consommation d’électricité.

L'apparition de l'Internet des objets signifie-t-elle à terme la fin du développement de l'informatique classique, celui de l'ordinateur ?

Pendant longtemps, l’ordinateur, avec une unité centrale et surtout un écran et un clavier, s’imposait comme le siège du calcul. Or, progressivement, les processeurs s’intègrent aux objets courants : tablettes, téléphones, voitures, réfrigérateurs, objets connectés - par exemple montres ou bracelets, et bientôt lunettes, stylos, voire mêmes ampoules électriques contiendront des processeurs. Cette évolution modifie grandement la perspective que l’on a couramment sur l’informatique. Pour le résumer, on dit que l’ordinateur disparaît. Cela ne signifie pas qu’il s’absente, car il est plus présent que jamais, mais qu’en s’intégrant aux objets, il n’est plus apparent.

Ces nouveaux développements de l’informatique vont complétement transformer la vie quotidienne, puisque le calcul sera réparti dans tous les objets. Qui plus est, la connexion de ces objets entre eux leur permettra d’échanger avec les protocoles de communication de l’internet : c’est ce que l’on appelle l’internet des choses. Cela veut dire que le calcul se répartira en fonction des besoins et qu’il aura lieu soit localement, soit, dans l’éventualité de gros besoins, dans des centres de calcul délocalisés dans le "nuage" (cloud en anglais). Il s’ensuivra des architectures composites qui allieront des calculs très distribués localement à des gros centres délocalisés.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !