Villeneuve-sur-Lot : l'apport du dépouillement des listes d'émargement

Les journalistes du Monde Alexandre Léchenet et Nicolas Chapuis se sont rendus dans le Lot-et-Garonne et ont dépouillé l’ensemble des listes d’émargement de la circonscription de Villeneuve-sur-Lot qu’ils ont pu se procurer, soit 149 bureaux sur 167, représentant 94 % des inscrits de la circonscription. Ils ont confié ces données à Jérôme Fourquet, de l’IFOP, qui a fait tourner le même modèle mystérieux, dont nous ne saurons décidément rien, que pour le cas de l’Oise. La note rédigée par Jérôme Fourquet est en ligne, et ses principaux résultats repris dans l’article du Monde.
Alexandre Léchenet a eu l’amabilité de me communiquer les données qu’il a récoltées (tandis que j’attends toujours celle du PS concernant l’Oise, à bon entendeur…). Cela m’a permis de tester le modèle que j’avais utilisé pour estimer les reports de voix dans cette partielle sur une question essentielle, qui avait fait l’objet de beaucoup de débats dans les commentaires ici ou avec certains responsables du Parti socialiste : le modèle de King estime-t-il correctement le renouvellement du corps électoral entre les deux tours ?
Contrairement à ce que certains ont pu sous-entendre, le modèle ne raisonne pas à corps électoral constant ou en ne tenant compte que du solde apparent des chassés-croisés de la participation. Il cherche à estimer empiriquement le taux de rotation du corps électoral (c’est à dire à estimer le nombre d’abstentionnistes constants, de votants constants, d’abstentionnistes au premier tour venu au second et de votants au premier s’étant abstenus au second). Comme tout modèle, ses estimations peuvent évidemment être plus ou moins bonnes, en fonction des données. Plus spécifiquement, en l’occurrence, et comme souvent en matière d’inférence écologique, un facteur important en l’espèce est la variabilité spatiale : si le turn-over réel des électeurs est le double du turn-over apparent, mais identique partout (sans aucune variance donc), il sera très difficile pour le modèle de le détecter.

Mais dans le cas d’espèce le modèle n’a pas mal fonctionné (même si ce genre de commentaire est toujours un peu subjectif). En effet, le modèle de King estimait que 79 % des abstentionnistes du premier tour étaient également abstentionnistes au second tour – ou, plus précisément, la moyenne des estimations s’établissait à 79 %. La distribution de ces estimations (rappelons-le, 50.000 simulations pour chacun des 167 bureaux de vote) est résumée par la courbe de densité ci-dessous.

AbsAbs2

Or la valeur réelle (en tout cas, sur les 149 bureaux dépouillés) s’élève à 75,7 %. Comme on le voit, la différence avec mon estimation est relativement faible, et surtout la valeur réelle est bien située dans la courbe de densité (même si elle est clairement à gauche du pic de probabilité maximale).

Autre indicateur de la robustesse des estimations (en tout cas sur ce point-là), la qualité des estimations par bureau de vote. Le graphique ci-dessous représente la valeur réelle du paramètre et son estimation, bureau de vote par bureau de vote.

AbsAbs2BV

On voit que si le modèle surestime la part des abstentionnistes constants, il le fait d’autant plus que la part de ces abstentionnistes constants est faible dans un bureau de vote donné, et que la qualité de l’ajustement est altérée par de petits bureaux de vote. De plus, la dispersion (l’écart-type) du paramètre estimé est inférieur à sa dispersion réelle – on observe donc un effet de régression vers la moyenne, assez classique en modélisation.

Au final, le problème de modélisation du renouvellement du corps électoral est réel, mais ne semble pas très important dans ce cas d’espèce. Malheureusement, je ne pense pas qu’il soit possible d’en évaluer l’importance sans avoir les données réelles. Il est donc souhaitable, dans le maximum de cas, de pouvoir les récolter – mais ça suppose que des gens s’y coltinent, ce n’est pas du tout négligeable comme quantité de travail, d’autant qu’on ne peut le faire que dans la semaine qui suit une élection.

Il reste pour moi à chercher comment, à partir d’une modélisation, on peut l’améliorer en y intégrant ces données supplémentaires. La solution passe probablement par une méthode de calage aux marges itératives, il faudrait que je trouve le temps de regarder cela.

Partager/Marquer

Un seul commentaire

  • Olivier Belbéoch a écrit :

    Bonjour,

    Dans le cas de l'Oise, le décalage entre les abstentionnistes constants prédits et réels est du même ordre : 92,8 % -50 000 itérations- (sur les 152 bureaux où on dispose des comportements réels) contre 90,2 %. Néanmoins dans un contexte de très forte abstention, c'est tout à fait logique que ce décalage soit faible car ils forment la très grande masse des électeurs inscrits.

    Cette petite différence entraîne une sous-estimation des "nouveaux électeurs" du second tour que je vous avais déjà signalé qui elle est importante.

    Je ne sais ce qu'il en est à Villeneuve-sur-Lot mais un diagramme non pas sur les A1A2 prédits / A1A2 réels mais un diagramme sur les A1V2 prédits/A1V2 réels et un autre sur les V1A2 prédits/V1A2 réels auraient -a priori- une toute autre allure. Idem pour les courbes de densité où à mon avis on sort très largement des seuils classiques de confiance.

    Comme déjà signalé, dans le cas de l'Oise, ces "nouveaux votants forment à peu de chose près 1/3 de la masse des "votants1-votants2".

    Quand on intègre ces "nouveaux votants" dans le modèle EI (par exemple en considérant qu'ils ont voté pour un candidat fictif du 1er tour), la matrice de report des voix des autres candidats(c'est la préoccupation de départ à savoir le report Houssin/Italiani2) change du tout au tout sans parler des aberrations qu'engendre le modèle qui sont loin d'être négligeables.

    Certains nouveaux votants s'abstiennent dans le modèle et inversement quand on intègre aussi les V1A2 dans le modèle certains d'entre eux votent au 2nd tour.

    De mon point de vue, ces "fortes" aberrations sur des variables contrôlées rendent, tel qu'il est, le modèle de King peu pertinent en cas de très forts taux d'abstention.

    Pour rendre ce modèle plus robuste, il faudrait effectivement pouvoir caler certains comportements (interdire au A1V2 de s'abstenir au second tour et interdire au V1A2 de voter au second tour).

    Cordialement

    Olivier B

Laisser un commentaire

Votre courriel ne sera jamais rendu public.Les champs marqués d'un astérisque (*) sont obligatoires