Electionscope : retour sur un modèle de prédiction économétrique qui a échoué sur les résultats du 1er tour<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Politique
Electionscope : retour sur un modèle de prédiction économétrique qui a échoué sur les résultats du 1er tour
©Reuters

Réctification

Le nouvel outil de mesure Electionscope avait prévu une victoire de Marine Le Pen et la présence de François Fillon au second tour. Des mesures à contre courant des sondages qui ce sont avérés erronés. Décryptage des raisons de cette erreur.

Bruno Jérôme

Bruno Jérôme

Bruno Jérôme est économiste, maître de conférences à Paris II Panthéon-Assas.

Il est le co-fondateur du site de prévisions et d'analyses politico-économiques Electionscope.

Son ouvrage, La victoire électorale ne se décrète pas!, est paru en janvier 2017 chez Economica. 

Bruno et Véronique Jérôme ont aussi publié Villes de gauche, ville de droite: trajectoires politiques des municipalités françaises 1983-2014,  Presses de Sciences-Po, 2018, en collaboration avec Richard Nadeau et Martial Foucault.

Voir la bio »
Véronique Jérôme

Véronique Jérôme

Véronique Jérôme est maître de conférences en sciences de gestion à l'Université de Paris-Sud Saclay, Docteur HDR en sciences économiques de l'Université Paris-I, lauréate de la Bourse Louis Forest de la chancellerie des Universités de Paris et chercheuse associée au Largepa de Paris II. 

Suivez Véronique Jérôme sur Twitter

Bruno Jérôme est économiste, maître de conférences à Paris II Panthéon-Assas.

 

 

Bruno et Véronique Jérôme ont aussi publié Villes de gauche, ville de droite: trajectoires politiques des municipalités françaises 1983-2014,  Presses de Sciences-Po, 2018, en collaboration avec Richard Nadeau et Martial Foucault.

Voir la bio »

Atlantico : La semaine dernière, votre nouveau modèle économétrique ElectionScope faisait mentir les sondages et prévoyait un second tour François Fillon et Marine Le Pen. Comment expliquer vous le résultat des élections au regard des prédictions du modèle, comment expliquer le décalage ? 

Bruno et Véronique Jérôme On peut d’abord se demander pourquoi le modèle économétrique n’a pas pu prévoir l’éviction de François Fillon du second tour ? 

Bien que prévoyant la qualification de Marine Le Pen, il n’a pas pu anticiper l’élimination de François Fillon dès le premier tour et l’accession d’Emmanuel Macron au second tour. Pour rappel, le résultat à l’issue du premier tour donne Emmanuel Macron en tête du scrutin avec 24,01% des voix et Marine le Pen 21,3%, François Fillon est troisième à 20,01% et rate la qualification. 

La raison tient en partie dans le constat d’une domination de l’émotionnel sur le rationnel, or notre modèle ElectionScope repose sur des fondamentaux rationnels et n’a capté qu’une partie des éléments explicatifs du comportement de vote de 2017. 

La logique rationnelle de notre modèle considère en effet que l’électeur se détermine plutôt en fonction du bilan du sortant : c’est-à-dire en jugeant « sur pièces » plutôt qu’en prenant le risque de croire aux programmes (et promesses) des challengers dont on ne sait à l’avance s’ils les appliqueront. Or, depuis 1974, ce fût rarement le cas sauf sur de courtes périodes où le reniement a toujours succédé à la prise de risques.

L’électeur utilise ainsi des éléments, qui sont essentiellement de deux natures : économique et politique. Et pour aller « à l’essentiel », il résume l’état de l’économie à l’évolution du taux de chômage, en déduisant ainsi une plus ou moins grande compétence du sortant. A cela s’ajoute des indicateurs de nature politique comme les zones de forces territoriales des partis, les voix obtenues aux scrutins passés et enfin la popularité renseignant sur la « crédibilité » du politique.

Ensuite, la sous-performance inhabituelle du modèle est due à l’effacement de ces fondamentaux.

Contrairement aux présidentielles de 2002, 2007 et 2012(1), le modèle économétrique n’a pas fourni de prévisions pertinentes du rapport droite/gauche au premier tour de 2017. 

Parmi toutes les méthodes mobilisables comme outil de prévision, la moyenne des huit grands instituts de sondages (dernières vagues de février au 21 avril 2017) a incontestablement fait « mouche ». 

De son côté le modèle économétrique ElectionScope projetait un bloc de droite + centre à 27,8% (contre 25,59% réalisés), la gauche à 45,90% (contre 51,76% réalisé) et le FN à 25,40% (contre 21,43% réalisés). 

Pourtant, jusqu’en décembre 2016, modèle et sondages suivaient la même trajectoire indiquant que la droite avait a priori de bonnes chances de remporter la présidentielle. D’aucuns disaient une « élection imperdable ». Comment expliquer alors une telle divergence à l’arrivée ?

Jusqu’à présent, force est de constater que nous avons raisonné dans un environnement relativement « stable » au sens où le positionnement idéologique des candidats était facilement identifié par les électeurs et au sens où la responsabilité des sortants pouvait être établie. 

Enfin, le contexte de fin 2016-début 2017 sera radicalement différent et apportera son lot de « nouveautés » qui seront aussi autant d’obstacles pour l’électeur souhaitant choisir, nous y reviendrons.

Qu’entend-t-on par un environnement « stable » favorable à la prévision ? En réalité, la prévision se rapprochera du résultat réel à trois conditions : 

(1)Les électeurs doivent se comporter en moyenne comme ils l’ont fait par le passé. 

(2)Ceci suppose qu’ils se fondent sur des données d’appréciation objectives (bilan des sortants, taux de chômage, élections passées, poids des partis politiques dans leur territoire) et quelques éléments mixtes, à la fois subjectifs et objectifs, établissant la crédibilité des sortants (popularité de l’exécutif). 

(3)Enfin, un modèle ne doit pas être perturbé par des chocs exogènes « non contrôlés ».

Ainsi, les électeurs jugent de manière analogue dans le temps d’autant plus aisément que leurs critères d’appréciation des résultats des sortants varient peu. 

Or, le renoncement de François Hollande début décembre 2016 modifie radicalement la donne de ce point de vue. A partir de décembre 2016, il n’y a plus de sortant défendant son bilan comme c’est le cas depuis 1965. Cet aspect des choses est renforcé par Emmanuel Macron et Benoît Hamon qui ont tout fait pour s’exonérer du bilan d’un gouvernement dont ils ont pourtant fait partie. 

La responsabilité du sortant devient donc « diluée » aux yeux des électeurs et la gauche devient moins « comptable » du mandat écoulé. Elle encourt dès lors une moindre sanction électorale. 

Nous avons pu contourner cet obstacle en prenant en compte l’hypothèse de responsabilité « diluée » dans notre modèle (voir electionscope.fr et interview dans atlantico du 3 avril 2017). 

Il est alors apparu que la gauche serait plus forte mais que la droite pourrait compter sur un potentiel électoral de 27,8% au premier tour ce qui laissait envisager une qualification « à l’arraché » de François Fillon.

En définitive, lorsque la responsabilité des sortants est quasiment nulle (ou perçue comme telle), la conséquence est directe : les électeurs vont juger les candidats, soit de manière prospective (sur les programmes), soit sur des critères plus « légers ». Dans ce dernier cas, tout se passe comme si l’on pariait sur le résultat d’une course de chevaux dont les cotes évolueraient à la lecture des sondages.  Les éléments d’humeur, d’émotion, de colère vont alors supplanter les critères de jugement objectifs, ce qui s’écarte de la logique traditionnelle des modèles. 

Et au-delà, certains électeurs vont adopter un comportement stratégique à travers leurs réponses aux sondages.

Enfin, le modèle est effectivement fragile face aux chocs exogènes. Or, la campagne électorale de premier tour va subir dès la fin janvier les effets de véritables « cygnes noirs politiques ». Ceux-ci vont à leur tour perturber la comparaison des programmes, donc le jugement prospectif des électeurs que nous évoquions.

Avant la fin de janvier 2017, avec la controverse sur l’avenir de la sécurité sociale, François Fillon a perdu 3,84 points (moyenne des sondages) pour s’établir à 23,66% des intentions de vote. Mais avec le choc du « Pénélopegate », il perd à nouveau 4,76 points (moyenne des sondages de janvier à février). Entre fin février et le 22 avril, le candidat LR ne parviendra à récupérer que 0,54 point sur les 8,6 points concédés après la primaire de la droite et du centre (moyenne des sondages). 

Le second choc émane du ralliement de François Bayrou à Emmanuel Macron en février 2017. Alors que l’ex-ministre des finances est en perte de vitesse, le ralliement de François Bayrou lui offrira un rebond de 4 points, de 20,7% à 24,75%, score autour duquel il restera finalement.

Le troisième choc émane enfin de la relance de l’affaire des emplois présumés fictifs du Parlement européen concernant Marine Le Pen. En effet, une fois l’affaire relancée dans la presse, Marine le Pen décline progressivement jusqu’au débat télévisé à 11 candidats, alors même qu’elle s’était stabilisée à 26,4% (moyenne des sondages) fin février. A l’issue du débat, on observera cependant une nouvelle baisse de 1,48 point (de 24,25 à 22,77%).

Pour résumer, lorsque les fondamentaux (bilan économique du sortant…) ne peuvent plus servir d’éléments d’information essentiels pour fonder un jugement et que des évènements imprévus (les chocs exogènes) empêchent de se projeter sur les programmes, l’électeur est dans le brouillard. 

Dès lors, les sondages deviennent par substitution la principale source d’information. Ceci n’est pas sans effet sur le résultat final du vote, à cause des phénomènes de « concours de beauté » et d’autoréalisation des anticipations. 

Chacun veut être dans le camp du vainqueur annoncé par les sondages qui sont à leur tour utilisés pour ajuster son choix final. Le « subjectif » a alors définitivement triomphé des éléments d’appréciation « objectifs ».

Ces différents éléments ne pouvaient figurer pas dans un modèle bâti sur une logique « rationnelle ».

L'origine de ce décalage dans les résultats est-elle à chercher dans le modèle lui même ou dans le caractère inédit de cette campagne ? 

Ce n’est pas le modèle lui-même qui est en cause mais c’est bien le caractère inédit de cette campagne qui a joué et conduit à un résultat lui aussi inédit.

Les électeurs ont été pris au piège d’un contexte psychologique hors norme. De janvier à avril 2017, une part anormalement élevée de l’électorat s’est donc retrouvée dans le brouillard à la veille du premier tour(2). Ceci tient au renoncement du Président sortant, au caractère inhabituel de l’offre politique, au contexte des affaires, mais aussi à la peur de la montée des « extrêmes » entretenue par des sondages longtemps prometteurs pour Marine le Pen puis progressivement pour Jean-Luc Mélenchon à partir de la mi-avril. Ainsi, la possibilité d’avoir à choisir entre un « insoumis » (Jean-Luc Mélenchon) ou la candidate du FN prenait corps peu à peu.

Force est de constater que le comportement de l’électeur est toujours plus ou moins influencé par des éléments de nature psychologique à côté des fondamentaux « objectifs » que sont les variables économiques et politiques. A ce titre, la rationalité du vote sera d’autant plus forte que les éléments relevant de l’humeur ou de l’opinion seront faibles. Dans le cas contraire, comme ce fut le cas, le vote sera moins prévisible perturbant du même coup la performance prédictive d’un modèle « scientifique ».

Un Président sortant se soustrayant au verdict des électeurs est un premier élément de déstabilisation. Les chocs exogènes tels que les affaires ou des ralliements non prévus constituent une deuxième source de déstabilisation du contexte prévalant. 

La prévision du modèle ElectionScope doit finalement être interprétée comme la résultante d’une situation « normale » où le sortant se représente, où le clivage gauche-droite conserve son sens, et où l’image des candidats ne serait pas manipulée par toutes les « ficelles » du marketing « politicien » (voir « La victoire électorale ne se décrète pas ! » Economica, janvier 2017). 

Or, en 2017 rien ne fut « normal » et pas seulement s’agissant des fondamentaux déjà évoqués. François Fillon, a vu son image régulièrement attaquée non seulement par les « affaires » mais aussi par les réseaux sociaux qui inlassablement répèteront des slogans « négatifs » pour un « bashing »(3) qui imprimera la mémoire de l’électeur jusqu’à la veille de l’élection. Mérité ou non, là n’est pas la question, François Fillon est le seul candidat à avoir subi un tel traitement, en 2017, mais peut-être aussi sous la V° République(4). 

Le modèle ElectionScope qui met en avant la précocité de la prévision comme un atout fondamental n’a pas su intégrer la destruction de soutien politique dont a souffert François Fillon. Elle annonçait pourtant son éviction du second tour.  L’effet d’éléments et d’évènements qui peuvent parfois prendre la forme de « cygnes noirs » (évènements très violents mais aussi très imprévisibles) reste un problème, car on ne saurait prévoir l’imprévisible. Tout au plus peut-on risquer de calculer les probabilités d’apparition de certains phénomènes quand on décèle des signes annonciateurs. Ce qui autorise ensuite une évaluation des coûts électoraux. 

A l’avenir le modèle s’efforcera d’intégrer ces éléments psychologiques, directement ou indirectement en envisageant pourquoi pas un indice synthétique type « Vix »(5) du contexte politico-économique.

Vous déclariez que votre modèle repose sur un historique long et a été bâti pour des duels classiques droite/gauche de second tour. Faut-il repenser ce modèle au regard des nouveaux clivages politiques qui semblent se dessiner ?

Oui, mais avec prudence néanmoins. Le modèle est construit sur une double logique sortant/opposition et droite/gauche/FN. Or nous assistons -pour l’heure- à une quadripolarisation des forces politiques entre En Marche!, le FN, LR et les « insoumis ». Le PS étant pour l’instant « très abimé » après avoir été siphonné au profit d’En Marche! et de La France insoumise. Mais attendons les législatives, où les partis traditionnels bien implantés peuvent renaître de leurs cendres.

A l’avenir nous devrons travailler sur des modèles « multipartis » inspirés de ceux que nous avons construits pour l’Allemagne depuis 2013. Le critère opposition/sortant devient un facteur exogène (explicatif) et non plus endogène (expliqué).

Nous pourrons ainsi prévoir directement les familles politiques. Bien entendu cela ne prémunit pas totalement contre les chocs exogènes (affaires, conflits, attentats …) comme évoqué précédemment.

Il faudra aussi mieux intégrer les aspects subjectifs tel que l’humeur des électeurs, qui transparaissent dans les sondages d’intentions de vote, eux-mêmes de plus en plus utilisés dans la décision de vote (même si les problèmes de concours de beauté et d’auto-réalisation peuvent être perturbateurs).

Enfin, il reste à modéliser En Marche!. A priori ce vote reste majoritairement proche du PS et du centre gauche. Sur 100 électeurs d’Emmanuel Macron 57 viennent de la gauche et 23 du Modem et des non affiliés. On le constate aussi en termes de géographie électorale. Ce vote est donc identifiable et modélisable.

Si nous avons dit qu’il fallait être prudent quant à la prise en compte de la recomposition politique, c’est parce qu’elle n’invalide pas totalement notre modèle sur séries longues. En effet d’autres pays ont connu des phases de recomposition (avec des coalitions) qui se sont avérées transitoires puisque la balkanisation électorale s’est effacée devant le retour du fait majoritaire, d’où un retour à des blocs idéologiquement homogènes. Ce fut le cas en Italie, en Allemagne, aux Pays-Bas, en Suède, en Finlande, au Danemark et en Espagne. Aujourd’hui dans l’ex-Europe des 15, dix pays (dont la France pour l’instant) ont un gouvernement idéologiquement homogène contre cinq ayant une coalition droite/gauche. La décomposition et la recomposition politique sont les deux phases d’un cycle plus ou moins long. Lorsque les coûts de décisions (et l’inefficacité économique qui va avec) deviennent insupportables les citoyens réclament un retour à la logique majoritaire et à l’homogénéité idéologique des partis. Lorsque la logique majoritaire finit par écraser un peu trop la pluralité des sensibilités électorales au nom de l’efficacité de la gouvernance, les citoyens veulent l’union nationale ou le retour des coalitions. C’est un peu l’histoire de la IVème République s’effaçant devant la Vème République. 

Dans l’attente d’une confirmation des évolutions observées nous travaillerons simultanément sur deux modèles. Celui qui continue à intégrer le schéma sortant/opposition d’un côté et le nouveau modèle « multipartis » de l’autre. Telle sera notre démarche à l’occasion des prochaines législatives.

(1) En décembre 2012, en ce qui concerne le 1er tour, le modèle donne 45,96% au bloc de gauche (contre 44% réalisés) ; 29,41% au bloc de droite (contre 28,98%) ; 11,75% au Modem (contre 9,13%) et 13% au FN (contre 17,9%)

(2) D’après l’étude post-électorale Opinionway, 15% des électeurs se sont décidés le jour même du vote contre 11% seulement en 2012. A noter qu’en 2012, 46% des français savait dès le départ pour qui ils voteraient. En 2017 cette proportion chute à 28%.

(3) L’effet attendu de reprises régulières, ou effet d’exposition, de slogans positifs ou négatifs, très répandus dans les campagnes américaines, est d’accrocher l’électeur pour mieux le manipuler. 
(4) Hormis « l’affaire de la feuille d’impôts » de Jacques Chaban-Delmas et « l’affaire des diamants » de Valéry Giscard d’Estaing. 
(5) Indice de la « peur » ressortant de la volatilité des options, volatilité née de l’incertitude. Ainsi, un indice VIX électoral pourrait traduire les degrés de peur/ d’indécision de l’électeur en fonction de la plus ou moins grande incertitude du contexte politico-économique.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !