Sondages, statistiques et marges d'erreurs : derniers enseignements à la veille de la Primaire de la droite et du centre<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Politique
Sondages, statistiques et marges d'erreurs : derniers enseignements à la veille de la Primaire de la droite et du centre
©Reuters

Bon à savoir

Sur la base des quatre enquêtes ayant eu lieu entre le 10 et le 18 novembre 2016, François Fillon a 7 % de chances d'être en tête au premier tour, et 42 % de chances d'être qualifié au second tour de la primaire.

Sylvain Brouard

Sylvain Brouard

Sylvain Brouard est chargé de recherche de la Fondation nationale des sciences politiques au Cevipof.

Voir la bio »

A la veille du vote, force est de constater que les sondages sur la Primaire de la droite et du centre (Graphique 1) ont présenté des résultats variables. Bien qu’Alain Juppé ait presque toujours été en tête des intentions de vote, celles-ci ont substantiellement varié dans le temps court et dans le temps long. Que faut-il en penser ?

Volatilité aléatoire et variations significatives

Par définition, les résultats des sondages sont sujets à des variations liées au fait même que l’étude porte sur un échantillon et non sur la population entière. Lorsqu’à plusieurs reprises, plusieurs centaines d’individus sont interrogés dans un même ensemble de plusieurs millions, il est logique que les résultats varient. L’inverse serait hautement improbable.  Par conséquent, sur le temps court, des différences entre les intentions de vote produites par différents instituts ou à différents moments sont inévitables. Cependant, elles ne sont pas toutes significatives. Bien qu’aucun des sondages sur la primaire n’utilise une méthodologie aléatoire d’échantillonnage, la simulation de la marge d’erreur (à 95%) associée au résultat de chaque candidat dans chaque enquête souligne qu’une grande partie des fluctuations s’inscrivait dans l’écart correspondant aux marges d’erreur.

Toutefois, des variations d’une ampleur significative sont discernables. Ainsi le premier semestre 2016 se caractérisait par une faiblesse persistante des intentions de vote pour Nicolas Sarkozy avant que celui-ci ne retrouve son niveau moyen (30% depuis juin 2014) et qui est peu ou prou toujours le sien à la veille du scrutin. Cet exemple de retour à la moyenne est cependant l’exception dans l’évolution des résultats des candidats de la primaire. Ainsi, Alain Juppé est, depuis le 10 novembre 2016, plus de 6 points sous son niveau moyen et Bruno Le Maire près de 4 points en dessous du sien alors que F. Fillon est près de 13,5 points au dessus du niveau moyen constaté depuis mi-2014. Cette évolution, qui débute mi-octobre 2016, est la plus spectaculaire et semble, à première vue, refléter une situation relativement indécise puisqu’au vu de l’enquête la plus récente d’Ipsos, le niveau des intentions de vote pour Alain Juppé et Nicolas Sarkozy aurait 95% de chances de se situer entre 25,9 et 32,1% et celui pour François Fillon entre 26,8 et 33,2 %.

Graphique 1. Évolution des scores (intégrant la marge d’erreur à 95%) des 4 principaux candidats à la primaire de la droite et du centre

Une approche alternative : méta-analyse et présentation probabiliste

Compte tenu de la faiblesse des écarts constatés, recourir à une manière alternative d’étudier les résultats des sondages est justifié. Une méta-analyse des sondages d’intentions de vote est de nature à éclairer de manière complémentaire[1], si ce n’est plus appropriée, l’état des rapports de force électoraux compte tenu des incertitudes liées à tout échantillonnage. Elle consiste à appréhender les écarts entre chaque candidat dans chacun des sondages d’intentions de vote comme des cas constitutifs d’un échantillon. Par conséquent, il est ensuite possible d’utiliser les lois de probabilité pour estimer les chances qu’un candidat en précède un autre.

Il convient d’appréhender le premier tour de la primaire comme une permutation. Pour comprendre la logique sous-jacente à la démarche, prenons l’exemple le plus simple possible : une élection fictive où seuls trois candidats (A, B et C) sont en concurrence. Dans ce cas, le nombre de permutations possibles est égal à la factorielle de 3. Il y a donc 6 permutations possibles pour le premier tour :

A > B > C ; A > C > B ; B > C > A ; B > A > C ; C > A > B ; C > B > A.

Par conséquent, la probabilité que le candidat A, par exemple, soit en tête correspond à la somme des probabilités que les situations A > B > C et A > C > B  se réalisent. La probabilité que le candidat C soit qualifié pour le second tour de l’élection présidentielle consiste, selon la même logique, en la somme des probabilités que les situations A > C > B, B > C > A,  C > A > B et C > B > A se réalisent.

Le calcul des probabilités de chaque permutation au premier tour se base sur la probabilité de chaque arrangement (pour chaque paire de candidats inclus dans l’analyse). Dans notre exemple, le nombre d’arrangements possibles est aussi égal à la factorielle de 3, soit 6 arrangements[2] : A > B, A > C, B > C, B > A, C > A et C > B. La probabilité de chaque arrangement s’obtient, dans une méta-analyse, à partir des résultats des divers candidats dans un échantillon de sondages (au minimum 2 sondages par période). Pour connaître la probabilité de l’arrangement A > B au premier tour, on estime de manière robuste la moyenne des écarts entre A et B à partir de la médiane de la différence entre les intentions de vote pour A et les intentions de vote pour B dans l’échantillon de sondages retenus. Puis on estime l’erreur standard de la moyenne[3]. Est ensuite généré un t score qui nous permet d’obtenir une probabilité que A >B.

Graphique 2. Probabilités d’être en tête au premier tour de la primaire

La méta-analyse des sondages du 10 au 18 novembre 2016 aboutit à accorder près de 69% de chances à Alain Juppé de remporter le premier tour de la primaire alors que Nicolas Sarkozy a une probabilité de 25%. François Fillon a 7% de chance d’arriver en tête selon cette analyse… A l’inverse, ce candidat a de réelles chances (42%) d’être au second tour, bien que plus faibles que celles de ces adversaires, respectivement 88% et 70% pour les anciens Premier ministre et président.

Graphique 3. Probabilités d’être qualifié pour le second tour de la primaire

Cette méta-analyse souligne qu’à la veille du vote, un vrai doute subsiste sur le vainqueur du premier tour et l’identité des deux qualifiés pour le second tour. Cependant, ces résultats reposent sur le présupposé que le niveau et la structure de la participation réelle soient ceux captés par les sondages d’intentions de vote. S’il devait en être autrement, les probabilités associées à chaque candidat en seraient profondément transformées


[1] Andrew GELMAN, Gary KING and W. John BOSCARDIN, "Estimating the Probability of Events That Have Never Occurred: When Is Your Vote Decisive?", Journal of the American Statistical Association, March 1998, Vol. 93, No. 441.

[2] Au-delà de trois candidats, le nombre d’arrangements diffère du nombre de permutations. Le nombre d’arrangements A pour le second tour d’une élection présidentielle avec un nombre N (supérieur à 2) de candidats est égal à : A=N!/(N-2)!

[3] Puisque l’analyse empirique des différences entre résultats des intentions de vote et résultats électoraux a mis en évidence que les écarts (même le jour du vote) excédaient la marge d’erreur théorique, nous avons fait le choix d’utiliser le niveau de l’erreur moyenne absolue constatée pour les primaires américaines (8 points) pour estimer l’erreur standard de la moyenne.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !