La réalité sur la pénurie d’idée chez nos chercheurs académiques | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Science
La réalité sur la pénurie d’idée chez nos chercheurs académiques
©AFP

Science

La réalité sur la pénurie d’idée chez nos chercheurs académiques

La productivité des chercheurs dans les technosciences d’après une étude américaine.

François Vazeille

François Vazeille

François Vazeille est directeur de recherche émérite au LPC Clermont (CNRS/Université Clermont Auvergne), ancien responsable de l'équipe ATLAS, Prix Fernand Mège de l'académie des sciences, belles lettres et arts de Clermont-Ferrand.

Voir la bio »

Partant d’une étude produite par une association d’économistes américains, l’American Economic  Association, l’article de Jean-Michel Besnier et d’Yves Michaud du 3 mai 2020, est intitulé « Vers une pénurie d’idées nouvelles ? L’étude montre que l’innovation véritable progresse peu malgré un nombre de chercheurs dans le monde toujours grandissant ».   L’extrait de l’étude américaine est très court (7 lignes, nous allons y revenir), mais cela suffit aux deux auteurs pour dérouler sur 3 pages une série de commentaires à charge contre les chercheurs académiques travaillant plutôt dans les sciences physiques fondamentales.

Le petit extrait «américain » cite la fameuse Loi de Moore, sans en rappeler  la véritable définition, selon laquelle le nombre de transistors sur un circuit intégré double tous les deux ans.  Il évoque plutôt la recherche industrielle et l’innovation, pas un mot sur la recherche fondamentale. Ce n’est pas très surprenant puisqu’il s’agit d’une étude menée par des économistes – compétents ou non – dont l’intérêt  principal est la retombée économique via l’innovation.  Ces économistes s’étonnent que pour doubler, aujourd’hui, le nombre de transistors, il faille 18 fois plus de chercheurs qu’au début des années 70. Nous ne connaissons pas la source de cette information et nous ne pouvons pas exclure quelque confusion avec un énoncé déformé de la loi de Moore selon lequel la puissance dissipée (et non le nombre de transistors) doublerait tous les … 18 mois. Les deux auteurs se veulent plus précis et évoquent « la fameuse  loi de Moore » qui, appliquée aujourd’hui, requiert 18 fois plus de chercheurs pour doubler le nombre de transistors … tous les 18 mois. Cela ressemble à un bel exercice de numérologie : allons-y, pourquoi pas ! Mais cela signifie-t-il que ces fameux chercheurs, étant donc moins compétents, sont condamnés à s’associer pour produire le même résultat qu’avant ? Le corolaire étant que malgré un nombre croissant de chercheurs, l’innovation ne suit pas. Pas du tout, la vraie raison est que la miniaturisation des transistors,  l’augmentation de leurs fréquences de fonctionnement et la dissipation thermique à l’intérieur des puces ont accompli des progrès considérables au début, et puis c’est devenu de plus en plus difficile à améliorer, si bien qu’aujourd’hui, nous arrivons tout simplement aux limites de cette technologie, malgré des astuces telles que le parallélisme des circuits. Il est à parier que dans les applications informatiques,  l’informatique quantique prendra le relais, bientôt si nous sommes optimistes, ce qui sera une innovation gigantesque … qui  occupe déjà de nombreux chercheurs.

Un constat amer sur la productivité des chercheurs académiques en France ?

Partant de ce constat trompeur, les deux auteurs « répondent » à des questions d’Atlantico qui contiennent, chaque fois,  les réponses : « … le nombre de chercheurs ne cesse d’augmenter. Pour autant l’innovation comme la production d’idées nouvelles, mondialement, stagne. Comment expliquez-vous ce paradoxe … ? ».

Aussitôt, les auteurs abandonnent les chercheurs industriels, évoqués par les américains, pour considérer exclusivement ceux des organismes publics français, en se référant aux propos très durs d’un ancien président de la république, Nicolas Sarkozy : « Les chercheurs français ne sont plus à la hauteur, ils s’adonnent à des travaux qui n’intéressent plus personne, ils sont dépourvus de tout dynamisme et esprit de compétition ;  bref, ils sont nuls … et ne méritent pas que la Nation les entretienne ». Petite remarque, en passant : j’ai corrigé le texte, car il était écrit « les entretiennent ».  Les auteurs se délectent, à n’en point douter, en reportant ces propos que n’apprécièrent pas les présidents du CNRS, de l’INRA et du CEA, lesquels quittèrent la réunion. Ces appréciations du président sont à l’opposé de celles qu’il tînt, à Paris,  lors de l’ouverture de la conférence mondiale ICHEP (International Conference on High Energy Physics) en juillet 2010 : les chercheurs français étaient, à l’entendre, au sommet de la recherche mondiale !

La recherche fondamentale balayée par les technosciences en France ?

Mais au début des années 2010, les auteurs soulignent que le mot magique « innovation » fait son apparition, il faut donc renoncer aux recherches fondamentales : voici « l’ère des technosciences, la constitution d’équipes, la mise en œuvre d’une intelligence collective », « terminée l’œuvre solitaire d’un Poincaré ou d’un Einstein appartenant désormais à une époque révolue de l’histoire des sciences. »

Nous sommes en droit, nous aussi, de poser des questions : les deux auteurs n’ont-ils jamais visité un laboratoire de recherches fondamentales ? Il n’y avait pas d’équipes de recherche avant les années 2010, avec des chercheurs (et n’oublions pas des supports techniques et administratifs de la recherche) travaillant collectivement au sein du laboratoire, et aussi en collaboration avec d’autres équipes le plus souvent internationales ? Quant aux allusions à Poincaré et Einstein, d’une part ils n’étaient pas aussi isolés que cela est suggéré et, d’autre part, les théoriciens (français ou non) travaillent rarement seuls. Enfin, l’avènement des technosciences n’est pas nouveau : les recherches expérimentales sont toujours en symbiose avec les technologies de pointe et, dans certains cas, sont à l’origine de ces technosciences, c’est ce qui se passe, par exemple au CERN, le plus grand laboratoire de recherches fondamentales au monde.

Une pénurie de découvertes scientifiques depuis des lustres : vrai ou faux ?

Arrive la question selon laquelle « certains chercheurs affirment qu’aucune innovation n’a réellement bouleversé la science depuis la découverte de la physique quantique. »

Il est fait référence au théoricien Jean-Marc Lévy-Leblond : «  … depuis la Relativité et la mécanique quantique, en gros depuis les années 1930, la science n’a rien produit de significatif. Elle est devenue science appliquée, seulement soucieuse de produire des effets et résignée de plus en plus à délaisser la recherche des causes ultimes des phénomènes naturels ». Jean-Marc Lévy-Leblond est un excellent théoricien, en particulier lorsqu’il commente ces deux domaines de la Relativité et de la Mécanique quantique. Par contre, il a de grosses difficultés à comprendre la physique expérimentale et les chercheurs qui la pratiquent. Deux exemples à propos de la découverte du boson de Higgs au CERN. Il a écrit dans la revue de sociologie Zilsel que la plupart des chercheurs qui ont mis en évidence ce boson ne comprennent pas ses fondements théoriques : ce n’est pas très gentil pour nous. Il a écrit également dans un ouvrage de vulgarisation que les expériences effectuées en physique des hautes énergies n’étaient pas reproductibles. Si c’était vrai, ce serait une entorse impardonnable à la démarche scientifique … et des coûts budgétaires injustifiés. Cependant, une fois mis en évidence en 2012 par les deux expériences concurrentes Atlas et CMS (donc reproduction par deux dispositifs très différents dans leur conception), les expériences ne se sont pas arrêtées et continuent, depuis, à prendre des données en affinant les propriétés de cette particule: des quelques centaines de bosons identifiés en 2012, nous sommes passés à quelques dizaines de milliers par expérience aujourd’hui, et ce n’est pas fini car les expériences vont continuer à tourner jusqu’à l’année 2035 au moins. Faire croire que les chercheurs sont incapables de comprendre ce qu’ils font et incapables de reproduire les résultats dénote une totale incompréhension de la recherche. Les sciences dures n’ont rien produit de significatif depuis 1930 ? Quid de la mise en évidence des ondes gravitationnelles, 100 ans après les prévisions d’Einstein, et de la découverte du boson de Higgs, justement, 48 ans après son « invention » par trois groupes indépendants de théoriciens. Bien sûr, il ne s’agit « que de découvertes expérimentales » ! Mais la formulation théorique de ce champ de Higgs qui remplit notre Univers n’est-elle pas un triomphe de la pensée humaine ? Les mêmes commentaires pourraient être formulés à propos de l’astrophysique et de la cosmologie. Physique des particules, astrophysique et cosmologie n’auraient donc rien à voir avec « la recherche des causes ultimes des phénomènes naturels » !

Les auteurs en rajoutent une couche en écrivant qu’en dépit de la multiplication des observations, et donc des données, il n’y a pas eu « renouvellement des modèles fondamentaux ».  Il est également question d’un « traitement automatique des données … en quelque sorte  au hasard … sans formuler d’hypothèses ».  C’est complètement inexact : les théoriciens et les expérimentateurs élaborent et testent de nouvelles théories visant à unifier les deux grands domaines que sont la Relativité générale et la Mécanique quantique. Ce n’est pas simple, il existe différentes approches de la gravitation quantique (La Gravitation quantique à boucles, les Supercordes) et un très grand nombre de modèles intermédiaires qui démontrent le foisonnement des idées et leurs confrontations aux expériences en cours.

La recherche fondamentale est-elle rentable ?

Ensuite, le texte est écrit en rouge : cela signifie très certainement qu’il faut accorder une importance particulière à son contenu. Effectivement, est mis en avant « le constat déprimant établissant que l’effort de recherche consenti par nos sociétés croît tandis que la recherche de productivité décroît - constat, en d’autres termes, que la production des idées par nos chercheurs n’offre plus le retour sur investissement que l’on en espérait. L’exemple volontiers invoqué concerne la fameuse loi de Moore… ».

Nous voici de retour avec les chercheurs de l’industrie des puces électroniques, dont nous avons déjà parlé, tout en gardant à l’esprit nos chercheurs des sciences fondamentales, ce qui contribue à une confusion, bien entendu involontaire, justifiée par la suite en déplorant  « … que l’investissement dans la recherche ne soit plus rentable, puisque les idées des chercheurs ne sont plus au rendez-vous fixé par les décideurs et bailleurs de crédits. Peut-on exprimer plus courte vision ? ».

Voyons un exemple qui illustre la rentabilité de la recherche fondamentale, et c’est certainement valide dans d’autres domaines scientifiques. Au début des années 1980, le CERN a demandé un audit sur les retombées des recherches qui y sont effectuées, retombées autres que celles liées à la progression des connaissances ; le résultat fut le suivant : 1 Franc Suisse dépensé au CERN a des retombées chiffrées à 3 Francs Suisse. Cela signifie que même si les recherches fondamentales menées au CERN (c’est le but) ne servaient à rien, les retombées justifieraient les investissements. Ces innovations concernent le génie civil, la cryogénie, la mécanique, l’électronique, l’informatique et beaucoup d’autres domaines, en particulier  la santé à travers l’imagerie médicale, le traitement des données,  les détecteurs pour la tomographie, les scanners ... Citons également le Web, créé au CERN pour permettre la communication des scientifiques engagés dans le monde entier. Ce qui est vrai au CERN l’est également dans les laboratoires qui y travaillent, où des équipes de physique appliquée ou de biologie bénéficient des retombées des recherches fondamentales, principalement dans les aspects technologiques.

L’explication génétique de la pénurie d’idées: le plafonnement du QI des chercheurs !

Les auteurs indiquent également qu’ils sont « peut-être contraints d’abonder dans le sens des analyses de Jean-François Toussaint, professeur de physiologie à l’AP-HP, qui montrent que nous assistons aujourd’hui à un plafonnement des performances dans la plupart des domaines qui nous paraissaient ouverts à l’augmentation : la taille, les performances sportives, la longévité… ».  Cela les conduit à envisager que ce « plafonnement des performances … » pourrait « tenir à des facteurs génétiques (le QI des chercheurs) », ce qui limiterait cette production d’idées si sévèrement en décroissance.

Nous devons donc comprendre que la pénurie d’idées nouvelles des chercheurs serait due au plafonnement naturel du QI de l’espèce humaine.  Voilà l’explication ! Faut-il en rire ou déplorer une belle illustration de l’alterscience ?

Dans quel état se trouve la recherche française ?

Pour conclure, nous rappellerons que la recherche française, fondamentale ou appliquée, sciences dures ou non, tient une bonne place dans le contexte mondial et que ses personnels de la recherche sont appréciés par leurs homologues étrangers. Dans l’Appendice joint à ce texte (et tiré de ma recension d’un ouvrage), nous en avons les preuves.

J’ai souvent évoqué le CERN, puisque j’y travaille depuis fort longtemps, mais je suis certain que les autres domaines des sciences fondamentales  pourraient illustrer de la même façon mon propos. Mais je m’arrête car, chercheur académique fondamentaliste, je suis … à court d’idées !

François Vazeille

Directeur de recherche émérite au LPC Clermont-Ferrand (CNRS/INP3-Université Clermont Auvergne) et au CERN.

Appendice relatif au classement mondial des organismes de recherche publique en France

Outre le CNRS, qui a un caractère pluridisciplinaire, il y a des organismes spécialisés tels que l’INSERM, l’INRA, l’IRSTEA, l’INRIA, l’INED… ou encore ceux qui associent les aspects fondamentaux et industriels ou commerciaux tels que le CEA, le CNES, l’IFPREMER ou encore l’Institut Pasteur, et bien d’autres encore.

Des classements internationaux placent plusieurs de ces organismes, et globalement la France, aux premières places mondiales. Le CNRS est le plus grand organisme de recherche fondamentale en France et le premier au niveau européen. Des lauréats des plus hautes distinctions scientifiques y ont été employés au cours de leur carrière ou ont travaillé dans des unités associées. C’est le cas de 21 prix Nobel sur les 22 lauréats Nobel français - les Nobel de la Paix et de littérature ne sont pas comptabilisés ici - depuis la création du CNRS en  1939, dont la moitié ont été salariés du CNRS, généralement en début de carrière ;  1 lauréat du prix Abel et 12 médailles Field, pour les mathématiques ; 1 prix Turing pour l’informatique. Un esprit chagrin rétorquera qu’il s’agit de scientifiques exceptionnels, mais l’image du savant isolé n’est plus de mise depuis fort longtemps, en particulier dans les disciplines à caractère expérimental. Mais qu’en est-il des classements internationaux de nos organismes de recherche, établis par des instances extérieures à la France ? Le CNRS figure au premier rang mondial des contributeurs à la revue Nature en  2017 (Au deuxième rang en 2010). L’institut SCImago,  géré par des universitaires espagnols et portugais, le classe en deuxième position mondiale en 2017 (Au premier rang en 2010), en tenant compte d’un grand nombre de paramètres (Publications, citations, collaborations, rapport entre études publiées et études concurrentes…), l’INSERM occupe également une très bonne place en quatorzième position. Le CEA est leader du palmarès Reuters 2016 portant sur les 25 institutions publiques qui contribuent le plus à faire progresser la science et la technologie dans le monde, le CNRS est 5ième, l’Inserm 10ième et l’Institut Pasteur 17ième.  Le classement mondial Webometrics, dédié à la visibilité sur le web des instituts de recherche place le CNRS au 4ième rang en 2017. Si nous nous référons à des palmarès comparant les pays, la France est, par exemple à la 6ième place en 2018 pour la revue Nature, et l’Inde à la 13ième,  alors que sa population est vingt fois supérieure. Nous pourrions évoquer d’autres classements, les dépôts de brevets par exemple où le CEA et le CNRS sont fort bien placés.

Le sujet vous intéresse ?

Thématiques

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !