Sondages 2016 - Historique

Sondages 2016 - Historique


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.


Bref historique des problèmes de vote le jour du scrutin

Les États-Unis ont une longue histoire de problèmes dans les bureaux de vote et pas seulement le choix potentiellement angoissant de savoir pour qui voter. Des problèmes pratiques à l'intimidation, il y a des dizaines de difficultés qui se sont abattues sur les Américains essayant de faire entendre leur voix. Au cours de la saison des élections primaires de 2016, les électeurs ont rencontré des problèmes allant de longues files d'attente à des listes d'inscription incorrectes. Et, alors que les élections générales de mardi commencent, les groupes de protection électorale se tiennent prêts à résoudre tous les problèmes que les électeurs pourraient rencontrer.

Un examen de l'histoire des problèmes de vote aux États-Unis révèle que, bien que le jour du scrutin ait toujours été compliqué, les manières dont le vote a été rendu difficile au fil des ans sont cohérentes et se répartissent en deux catégories seulement : les problèmes de technologie et les problèmes d'accès.

S'il y a une chose à dire sur l'histoire de la technologie de vote américaine, c'est que chaque mécanisme de vote a des défauts.

Au fil des siècles, les changements technologiques ont fourni de nouvelles opportunités d'erreurs et de difficultés lors du vote. Le vote par voix ou par ticket à code couleur expose les électeurs à l'intimidation ou l'achat de voix le vote exclut secrètement ceux qui ne savent ni lire ni écrire. Il peut être difficile d'interpréter l'intention d'un électeur dans une case à cocher sur un morceau de papier, mais les machines à voter mécaniques peuvent également mal fonctionner. Pendant ce temps, les machines informatisées n'ont pas résolu ce problème : en 2004, la sénatrice Barbara Mikulski du Maryland a recueilli des rapports selon lesquels les électeurs de trois comtés n'avaient même jamais vu la primaire du Sénat sur leurs écrans de machine à voter.

Mais, alors que la technologie peut être problématique, access&mdash s'assurer que tous ceux qui ont le droit et le désir de voter peuvent le faire&mdash a toujours été le problème le plus troublant le jour des élections.

Peut-être que la forme la plus simple de problèmes dans les urnes est d'être niée à vue. Les femmes qui tentaient de voter pour protester avant l'adoption du 19e amendement étaient souvent refoulées, mais pas illégalement.

Pendant ce temps, d'autres qui fait ont le droit de vote se sont souvent vu refuser ce droit, notamment les Afro-Américains.

Bien que la violence et les émeutes du jour du scrutin aient été relativement courantes dans tout le pays au milieu du XIXe siècle, l'historien David Grimsted a dénombré 35 émeutes le jour du scrutin et 89 décès à la suite de cette violence, entre 1828 et 1861, ce n'était pas toujours le résultat d'une hystérie spontanée des électeurs . Au contraire, même après que le 14e amendement a garanti aux hommes noirs les mêmes droits de citoyenneté que les Américains blancs, la violence signifiait qu'en pratique, ce droit n'était que brièvement exercé par la population noire. Octavius ​​Catto, un homme noir qui avait aidé l'Union dans la guerre civile, un intellectuel et un enseignant qualifié, a été abattu à Philadelphie en 1871 pour avoir voté. Lorsqu'Indianapolis a organisé des élections municipales en mai 1876, des rapports ont signalé que des électeurs afro-américains avaient été physiquement agressés dans les bureaux de vote. Et lors de l'élection présidentielle de cette année-là, un suprémaciste blanc de Caroline du Sud a exigé que « chaque démocrate doit se sentir obligé de contrôler le vote d'au moins un Noir, par intimidation, achat, éloignement ou selon ce que chaque individu peut déterminer ». #8221

Une lettre d'un homme afro-américain titrée à New York Fois comme « Comment ils ont voté » dans le Mississippi ? Des rapports sur de telles tactiques ont conduit à une enquête du Congrès, au cours de laquelle un homme a témoigné qu'en Louisiane, il avait vu cinquante hommes de couleur se rendre aux urnes par un garde d'hommes blancs et voté le billet démocrate, étant tenu de montrer leurs billets avant de voter. , a rapporté le Detroit Presse libre.

Et, à la fois avant et après cette période de reconstruction et jusque dans les années 1960, les méthodes non violentes de privation du droit de vote étaient également répandues.

Les électeurs pourraient avoir à répondre à des exigences financières. Au début du XIXe siècle, New York a augmenté le montant de la propriété imposable requis pour qu'un homme noir puisse voter, même si de telles exigences ont été supprimées pour les autres. Les taxes de vote sont devenues une méthode omniprésente pour priver les Noirs de leurs droits civiques après la Reconstruction. Plus tard, les électeurs potentiels ont parfois été faussement informés qu'ils pourraient être arrêtés pour des infractions sans rapport comme des contraventions au trafic s'ils se présentaient aux urnes, une tactique alarmiste utilisée au Texas en 1964 qui était apparemment toujours utilisée dans le New Jersey en 1996. Certains ont été menacés. ou s'est vu infliger des représailles économiques sous forme de perte d'emploi, d'expulsion ou de refus de prêt.

Les électeurs pourraient devoir passer un test d'alphabétisation ou de "compréhension". de sorte que vous deviez pouvoir faire correspondre votre vote à la bonne case pour ce candidat, et mélanger périodiquement les cases. Ces cerceaux se sont transformés en tests d'alphabétisation, qui étaient souvent presque impossibles à réussir, et qui ont longtemps été imposés aux Afro-Américains du Sud. Jusque dans les années 1960, on pouvait poser aux électeurs des questions de logique alambiquée que même un lecteur expert pouvait se tromper. Les lois restrictives sur l'alphabétisation ne visaient pas uniquement les électeurs pauvres ou noirs : New York, qui abrite des immigrants depuis des générations, a adopté une exigence d'alphabétisation en anglais en 1921.

Ou les électeurs pourraient trouver qu'il était tout simplement impossible de se rendre aux urnes. Lerone Bennett Jr. a écrit en 1962 dans Ébène sur les stratégies employées pour rendre physiquement impossible le vote des électeurs noirs dans le sud après la guerre de Sécession : « Des hommes blancs armés étaient stationnés sur les routes menant aux urnes » pour empêcher les Noirs de saisir les armes. Dans un comté de Louisiane. , les bureaux de vote étaient situés dans une région sauvage isolée. Les Blancs se sont rassemblés à l'église blanche et on leur a dit, à voix basse, comment se rendre aux urnes. Ce n'étaient pas les seules manipulations, et les tactiques consistant à changer les heures de scrutin, à changer de dernière minute les lieux de vote ou à des lieux inaccessibles ont persisté. .

Ces inquiétudes persistent également aujourd'hui : en 2016, il y a des centaines de bureaux de vote de moins qu'il y a deux ou quatre ans. Et, par exemple, un changement de dernière minute dans les bureaux de vote a déjà affecté les résidents de Boise, Ida.. Le projet Electionland de ProPublica surveille les rapports sur les longs temps d'attente, les problèmes avec les machines et l'enregistrement dans tout le pays

En général, cependant, les choses se sont améliorées.

La loi de 1965 sur les droits de vote a contribué à faire en sorte que des tactiques telles que les tests d'alphabétisation ne puissent plus être utilisées pour priver les Afro-Américains de leurs droits. Après 1975, le congrès a exigé une assistance linguistique pour les groupes minoritaires dans les districts où ils représentaient 5 % de la population ou 10 000. Une extension de 1982 à la loi sur les droits de vote a ajouté une protection aux électeurs aveugles, handicapés et analphabètes. L'Americans with Disabilities Act de 1990 exigeait en outre une accessibilité physique et des aménagements pour les personnes handicapées.


Consortium électoral de Princeton

8 novembre 2016, 00h45 par Sam Wang

(Mises à jour : données de 6 h 06 pour la présidence et le Sénat, et ajout d'intervalles de confiance. 9 h : plus de description, ainsi que la minimisation de la variance.)

Voici les derniers clichés. Quatre courses au Sénat sont à moins d'un point de pourcentage : Indiana, Missouri, New Hampshire et Caroline du Nord. Les partisans là-bas voudront peut-être plaider pour d'éventuelles batailles de recomptage.

Bientôt, je publierai un bref guide Geek pour l'élection. De plus, des blogs en direct à partir de 20h00 environ.

Présidente : Hillary Clinton (D).

Les estimations présidentielles sont basées sur l'instantané actuel dans la barre latérale droite, à l'exception de la carte à résultat unique la plus probable, où la minimisation de la variance a été effectuée pour donner un instantané plus stable pour la Caroline du Nord, Clinton +1,0 ± 1,0 % (N = 8 sondages).

Résultat unique le plus probable (indiqué sur la carte ci-dessous) : Clinton 323 EV, Trump 215 EV. C'est également le mode de l'histogramme ajusté CN.

Médiane : Clinton 307 EV, Trump 231 EV. Méta-Marge : 2,2%. Gamme à un sigma : Clinton 281-326 EV. La probabilité de gagner est de 93 % en utilisant l'hypothèse révisée d'erreur d'interrogation, +/- 1,1 %.

Vote populaire national : Clinton +4,0 ± 0,6 %.

Lorsque cela était possible, la minimisation de la variance a été utilisée pour identifier une fenêtre temporelle qui donnait une variance inférieure à la fenêtre temporelle standard.

Mode : 51 sièges démocrates/indépendants, 49 sièges républicains, la combinaison unique la plus probable est indiquée dans le tableau ci-dessous.

Médiane : 50 sièges démocrates/indépendants, 50 sièges républicains. (moyenne=50,4 ± 1,1 la gamme 1-sigma arrondit à 49 à 51 sièges)

Vote générique du Congrès : Démocratique +1%, à peu près le même qu'en 2012.

Attentes basées sur le rapport politique de Cook : 239 R, 196 D, un gain de 8 sièges pour les démocrates.

168 commentaires jusqu'à présent &darr

En repensant à l'erreur de sondage primaire du Michigan (http://election.princeton.edu/2016/03/09/how-surprising-was-the-sanders-win-in-michigan/) que faisons-nous des mauvaises nouvelles de ce côté de la médaille (MI, -19 AZ, -12 NC, -10 NH, -9 PA, -4 IA, -4) ? La bonne nouvelle est : OH, +6 FL, +3. Difficile à dire sur les États du caucus CO, NV. Pardonnez-moi si ce terrain a été couvert, j'aimerais un lien vers celui-ci.

Respirations profondes, respirations profondes // 8 novembre 2016 à 11:46

Sam, certains à Yale parlent fort de toi !

Ed Wittens chat // 8 nov. 2016 à 11h51

Le roi est mort…
Longue vie au roi!
Nate n'est VRAIMENT pas gunna comme ça.

Ed Wittens chat // 8 novembre 2016 à 11:57

de l'article filaire–
Parce que Wang a navigué vers True North depuis le début, tandis que Silver a prudemment essayé de virer de bord son voilier de données FiveThirtyEight (lesté de lingots d'or ESPN) à travers des vents contraires traîtres d'ouragan de catégorie cinq dans ce qui a facilement été la campagne présidentielle la plus folle de l'ère politique moderne.

Hé, tout le monde, ne pouvez-vous pas faire une danse de la victoire sur cet article ? Je voudrais réduire ce genre de comparaison. Vous savez tous ce qu'il a fait pour créer cette activité aux yeux du public. C'est un pionnier.

Ed Wittens chat // 8 nov. 2016 à 12:46 pm

Je t'ai dit en 2012 que j'en avais fini avec Silver
quand il a disparu de l'article du NYT, il a écrit pour démystifier le mythe du suréchantillonnage.
C'était de la pure flatterie pure.
Les scientifiques et les mathématiciens ont une profonde responsabilité envers le bien public de ne pas se faire foutre pour des clics et des globes oculaires.
C'est pourquoi la transparence des modèles d'agrégation de sondages est si importante.

Chat : quoi qu'il en soit, cela n'augmente pas le bien net du monde d'attiser (ou d'alimenter) un combat de chat. Le monde serait amélioré par la réconciliation ici.

Quelqu'un d'autre a-t-il noté la périodicité fixe dans le graphique MM et celles d'autres observateurs de sondages comme Upshot ? Le pic à pic semble être un peu moins de 2 mois. Étrange car les graphiques d'état (Upshot par exemple) ne montrent pas facilement cette caractéristique. Mais le complot national est une convolution des complots d'État, c'est donc un comportement émergent.

Quelqu'un a-t-il un code FFT ? Soyez curieux de voir si cela nous dit quelque chose.

Bob McConnaughey // 8 novembre 2016 à 15h03

Pas FFT mais j'ai un code SAS que je peux extraire qui est configuré pour évaluer la saisonnalité, en fait, il a été emprunté à ce site par Ed Stanek :
http://www.umass.edu/seasons/pdffiles/sea05d01.pdf
nous avons converti les dates en dates juliennes, en obtenant les thêtas en radians, en obtenant le sin/cos des mesures en radian, mais c'était vraiment le code SAS de ce type.

Je suis presque sûr que cela va augmenter à k = 1/2 mois. Mais qu'est-ce que ça veut dire? Que se passe-t-il sur cette échelle de temps ?

BTW, les données sont toujours belles, peu importe ce que dit Wired ! )

Oui, cette ligne ‘godawful web design’ dans l'article m'a fait réfléchir : de quoi parlent-ils ? C'est à ce moment-là que j'ai réalisé pour la première fois que j'étais un nerd.

Démodé création de sites web. Ce qui n'est pas forcément mauvais.

Peut-être que cela est couvert par le thread, mais comment obtenez-vous 98 à 99 % de chances de gagner le HRC si la queue gauche de l'histogramme est inférieure à 270 ? Ceux-ci ne représentent-ils que 1 à 2 % du total des résultats ?

discuté un peu ci-dessous et d'autres messages. Réponse courte : la prédiction PEC n'utilise pas l'histogramme pour faire des prédictions. Juste "quelles sont les chances que MM>0 le jour du scrutin" où le MM est calculé uniquement en utilisant la médiane de l'histogramme. Cela ne change pas beaucoup les choses cette élection, mais peut-être quelque chose à penser à l'avenir.

Bonne interview sur MSNBC. Tous les bons points ont été faits.

Salut Sam, pourquoi le nombre final de PEC de 323 EV pour HRC est-il tombé ce matin à 307 ? Avez-vous mis NC dans la colonne DJT ?

Que voulez-vous parier que le Trumpster va se plaindre et se plaindre d'une élection truquée parce qu'il a gagné autant d'États que Clinton ?

À chaque élection remportée par les démocrates, je reçois un e-mail post-électoral d'un cousin qui montre que la superficie des circonscriptions remportées par les républicains dépasse largement la superficie des circonscriptions remportées par les démocrates, comme si la terre, et non les gens, avait voté.

Dr Wang, j'apprécie votre attitude stable, stable et élégante pendant toute cette élection. Merci de m'avoir donné un endroit où aller qui est sain d'esprit quand il s'agit de politique. Vous faites des merveilles pour la psyché !


Contenu

Le premier exemple connu d'un sondage d'opinion était un décompte des préférences des électeurs rapporté par le Raleigh Star et North Carolina State Gazette et le Wilmington American Watchman et annonceur Delaware avant l'élection présidentielle de 1824, [1] montrant Andrew Jackson menant John Quincy Adams par 335 voix contre 169 dans le concours pour la présidence des États-Unis. Depuis que Jackson a remporté le vote populaire dans cet État et dans tout le pays, ces votes de paille sont progressivement devenus plus populaires, mais ils sont restés des phénomènes locaux, généralement à l'échelle de la ville. En 1916, Le condensé littéraire s'est lancé dans une enquête nationale (en partie comme exercice d'augmentation de la circulation) et a correctement prédit l'élection de Woodrow Wilson à la présidence. En envoyant des millions de cartes postales et en comptant simplement les retours, Le condensé littéraire prédit correctement les victoires de Warren Harding en 1920, de Calvin Coolidge en 1924, d'Herbert Hoover en 1928 et de Franklin Roosevelt en 1932.

Puis, en 1936, son sondage auprès de 2,3 millions d'électeurs suggéra qu'Alf Landon gagnerait l'élection présidentielle, mais Roosevelt fut plutôt réélu par un glissement de terrain. L'erreur était principalement causée par un biais de participation. Ceux qui favorisaient Landon étaient plus enthousiastes à l'idée de participer au sondage. En outre, l'enquête a suréchantillonné les Américains les plus riches qui avaient tendance à avoir des sympathies républicaines. [2] En même temps, George Gallup a mené une enquête beaucoup plus petite (mais plus scientifiquement fondée), dans laquelle il a interrogé un échantillon démographiquement représentatif. L'organisation Gallup a correctement prédit la victoire écrasante de Roosevelt, tout comme un autre sondeur révolutionnaire, Archibald Crossley. Le condensé littéraire a rapidement fait faillite, tandis que les sondages ont commencé à décoller. [3]

Elmo Roper était un autre pionnier américain de la prévision politique utilisant des sondages scientifiques. [4] Il a prédit la réélection du président Franklin D. Roosevelt à trois reprises, en 1936, 1940 et 1944. Louis Harris était dans le domaine de l'opinion publique depuis 1947 lorsqu'il a rejoint le cabinet Elmo Roper, puis est devenu plus tard associé.

En septembre 1938, après avoir rencontré Gallup, Jean Stoetzel crée l'IFOP, l'Institut Français d'Opinion Publique, premier institut européen de sondages à Paris et lance les sondages politiques à l'été 1939 avec la question « Pourquoi mourir pour Dantzig ? soutien populaire ou désaccord avec cette question posée par l'homme politique de l'apaisement et futur collaborationniste Marcel Déat.

Gallup a lancé une filiale au Royaume-Uni qui, presque seul, a correctement prédit la victoire du Labour aux élections générales de 1945, contrairement à pratiquement tous les autres commentateurs, qui s'attendaient à une victoire du Parti conservateur, dirigé par Winston Churchill. Les puissances d'occupation alliées ont aidé à créer des instituts d'enquête dans toutes les zones d'occupation occidentales de l'Allemagne en 1947 et 1948 pour mieux orienter la dénazification. Dans les années 1950, divers types de sondages s'étaient répandus dans la plupart des démocraties.

Dans une perspective à long terme, la publicité avait subi de fortes pressions au début des années 1930. La Grande Dépression a contraint les entreprises à réduire considérablement leurs dépenses publicitaires. Les mises à pied et les réductions étaient courantes dans toutes les agences. Le New Deal a en outre promu de manière agressive le consumérisme et a minimisé la valeur (ou le besoin) de la publicité. L'historien Jackson Lears soutient qu'« à la fin des années 1930, cependant, les annonceurs d'entreprise avaient lancé une contre-attaque réussie contre leurs détracteurs ». Ils ont réhabilité le concept de souveraineté du consommateur en inventant des sondages d'opinion scientifiques et en en faisant la pièce maîtresse de leur propre étude de marché, ainsi que la clé pour comprendre la politique. George Gallup, vice-président de Young et Rubicam, et de nombreux autres experts en publicité, ont ouvert la voie. Dans les années 1940, l'industrie a joué un rôle de premier plan dans la mobilisation idéologique du peuple américain pour combattre les nazis et les Japonais pendant la Seconde Guerre mondiale. Dans le cadre de cet effort, ils ont redéfini le « mode de vie américain » en termes d'engagement envers la libre entreprise. "Les annonceurs", conclut Lears, "ont joué un rôle hégémonique crucial dans la création de la culture de consommation qui a dominé la société américaine d'après-guerre". [5] [6]

Pendant de nombreuses années, les sondages d'opinion ont été maintenus par télécommunications ou par contact de personne à personne. Les méthodes et les techniques varient, bien qu'elles soient largement acceptées dans la plupart des domaines. Au fil des ans, les innovations technologiques ont également influencé les méthodes d'enquête telles que la disponibilité de presse-papiers électroniques [7] et les sondages sur Internet. Les types verbaux, électoraux et traités peuvent être menés efficacement, contrairement à d'autres types d'enquêtes, de systématiques et de matrices compliquées au-delà des procédures orthodoxes précédentes. [ citation requise ]

Les sondages d'opinion sont devenus des applications populaires grâce à la pensée populaire, bien que les taux de réponse à certaines enquêtes aient diminué. En outre, les éléments suivants ont également conduit à des résultats différenciés : [4] Certains organismes de sondage, tels que Angus Reid Public Opinion, YouGov et Zogby utilisent des sondages sur Internet, où un échantillon est tiré d'un large panel de bénévoles, et les résultats sont pondérés en fonction de refléter la démographie de la population d'intérêt. En revanche, les sondages Web populaires s'appuient sur quiconque souhaite participer, plutôt que sur un échantillon scientifique de la population, et ne sont donc généralement pas considérés comme des professionnels.

Récemment, des méthodes d'apprentissage statistique ont été proposées afin d'exploiter le contenu des médias sociaux (comme les publications sur la plateforme de micro-blogging Twitter) pour modéliser et prédire les sondages d'intention de vote. [8] [9]

Les sondages peuvent également être utilisés dans le domaine des relations publiques. Au début des années 1920, les experts en relations publiques décrivaient leur travail comme une voie à double sens. Leur travail consisterait à présenter au public les intérêts mal interprétés des grandes institutions. Ils évalueraient également les intérêts généralement ignorés du public par le biais de sondages.

Sondages de référence Modifier

UNE sondage de référence est généralement le premier sondage effectué dans une campagne. Elle est souvent prise avant qu'un candidat n'annonce sa candidature, mais parfois cela se produit immédiatement après cette annonce après qu'il a eu l'occasion de lever des fonds. Il s'agit généralement d'un sondage court et simple auprès d'électeurs potentiels.

UNE sondage de référence sert à plusieurs fins pour une campagne, qu'il s'agisse d'une campagne politique ou d'un autre type de campagne. Premièrement, cela donne au candidat une image de sa position avec l'électorat avant toute campagne. Si le scrutin est effectué avant l'annonce d'une élection, le candidat peut utiliser le scrutin pour décider s'il doit ou non se présenter aux élections. Deuxièmement, cela leur montre où se situent leurs faiblesses et leurs forces dans deux domaines principaux. Le premier est l'électorat. UNE sondage de référence leur montre quels types d'électeurs ils sont sûrs de gagner, ceux qu'ils sont sûrs de perdre, et tout le monde entre ces deux extrêmes. Cela permet à la campagne de savoir quels électeurs sont persuasifs afin qu'ils puissent dépenser leurs ressources limitées de la manière la plus efficace. Deuxièmement, cela peut leur donner une idée des messages, idées ou slogans les plus forts auprès de l'électorat. [dix]

Sondages sur les feux de brousse Modifier

Sondages sur les feux de brousse sont des sondages effectués au cours de la période entre le sondage de référence et suivi des sondages. Le nombre de sondages sur les feux de brousse prises par une campagne est déterminée par le degré de compétitivité de la course et le montant d'argent que la campagne doit dépenser. Ces sondages se concentrent généralement sur les électeurs probables et la durée du sondage varie en fonction du nombre de messages testés.

Sondages sur les feux de brousse sont utilisés à plusieurs fins. Premièrement, il permet au candidat de savoir s'il a fait des progrès sur le bulletin de vote, combien de progrès ont été réalisés et dans quelles données démographiques il a fait ou perdu du terrain. Deuxièmement, c'est un moyen pour la campagne de tester une variété de messages, à la fois positifs et négatifs, sur eux-mêmes et sur leur(s) adversaire(s). Cela permet à la campagne de savoir quels messages fonctionnent le mieux avec certaines données démographiques et quels messages doivent être évités. Les campagnes utilisent souvent ces sondages pour tester les messages d'attaque possibles que leur adversaire peut utiliser et les réponses potentielles à ces attaques. La campagne peut alors passer un certain temps à préparer une réponse efficace à toute attaque probable. Troisièmement, ce type de sondage peut être utilisé par des candidats ou des partis politiques pour convaincre les principaux challengers de se retirer d'une course et de soutenir un candidat plus fort.

Suivi des sondages Modifier

UNE sondage de suivi ou sondage roulant est un sondage dans lequel les réponses sont obtenues sur un certain nombre de périodes consécutives, par exemple quotidiennement, puis les résultats sont calculés en utilisant une moyenne mobile des réponses qui ont été recueillies sur un nombre fixe des périodes les plus récentes, par exemple les cinq derniers jours . [11] Dans cet exemple, les prochains résultats calculés utiliseront les données de cinq jours à rebours à partir du lendemain, à savoir les mêmes données qu'avant, mais avec les données du lendemain incluses, et sans les données du sixième jour avant Ce jour là.

Cependant, ces sondages sont parfois soumis à des fluctuations dramatiques, et les campagnes politiques et les candidats sont donc prudents dans l'analyse de leurs résultats. Un exemple de sondage de suivi qui a suscité une controverse quant à son exactitude est celui mené lors de l'élection présidentielle américaine de 2000, par l'Organisation Gallup. Les résultats d'une journée ont montré que le candidat démocrate Al Gore avait une avance de onze points sur le candidat républicain George W. Bush. Ensuite, un sondage ultérieur mené deux jours plus tard a montré que Bush devançait Gore de sept points. Il a rapidement été déterminé que la volatilité des résultats était au moins en partie due à une répartition inégale des électeurs affiliés aux démocrates et aux républicains dans les échantillons. Bien que l'organisation Gallup ait soutenu que la volatilité du scrutin était une véritable représentation de l'électorat, d'autres organisations de vote ont pris des mesures pour réduire ces écarts importants dans leurs résultats. L'une de ces étapes consistait à manipuler la proportion de démocrates et de républicains dans un échantillon donné, mais cette méthode est sujette à controverse. [12]

Au fil du temps, un certain nombre de théories et de mécanismes ont été proposés pour expliquer les résultats erronés des sondages. Certaines d'entre elles reflètent des erreurs de la part des sondeurs, et nombre d'entre elles sont de nature statistique. D'autres reprochent aux répondants de ne pas avoir donné de réponses franches (par exemple., l'effet Bradley, le Shy Tory Factor) ceux-ci peuvent être plus controversés.

Marge d'erreur due à l'échantillonnage Modifier

Les sondages basés sur des échantillons de populations sont sujets à une erreur d'échantillonnage qui reflète les effets du hasard et de l'incertitude dans le processus d'échantillonnage. Les sondages par échantillonnage reposent sur la loi des grands nombres pour mesurer les opinions de l'ensemble de la population en se basant uniquement sur un sous-ensemble, et à cette fin, la taille absolue de l'échantillon est importante, mais le pourcentage de l'ensemble de la population n'est pas important (sauf si cela se produit être proche de la taille de l'échantillon). La différence possible entre l'échantillon et la population entière est souvent exprimée comme une marge d'erreur - généralement définie comme le rayon d'un intervalle de confiance à 95 % pour une statistique particulière. Un exemple est le pourcentage de personnes qui préfèrent le produit A au produit B. Lorsqu'une seule marge d'erreur globale est signalée pour une enquête, elle fait référence à la marge d'erreur maximale pour tous les pourcentages signalés en utilisant l'échantillon complet de l'enquête. Si la statistique est un pourcentage, cette marge d'erreur maximale peut être calculée comme le rayon de l'intervalle de confiance pour un pourcentage rapporté de 50 %. D'autres suggèrent qu'un sondage avec un échantillon aléatoire de 1 000 personnes a une marge d'erreur d'échantillonnage de ± 3 % pour le pourcentage estimé de l'ensemble de la population.

Une marge d'erreur de 3 % signifie que si la même procédure est utilisée un grand nombre de fois, 95 % du temps, la vraie moyenne de la population se situera dans l'estimation de l'échantillon plus ou moins 3 %. La marge d'erreur peut être réduite en utilisant un échantillon plus important, mais si un sondeur souhaite réduire la marge d'erreur à 1%, il aurait besoin d'un échantillon d'environ 10 000 personnes. [13] En pratique, les sondeurs doivent équilibrer le coût d'un grand échantillon par rapport à la réduction de l'erreur d'échantillonnage et une taille d'échantillon d'environ 500 à 1 000 est un compromis typique pour les sondages politiques. (Notez que pour obtenir des réponses complètes, il peut être nécessaire d'inclure des milliers de participants supplémentaires.) [14] [15]

Une autre façon de réduire la marge d'erreur est de se fier aux moyennes des sondages. Cela suppose que la procédure est suffisamment similaire entre de nombreux sondages différents et utilise la taille de l'échantillon de chaque sondage pour créer une moyenne de sondage. [16] Un exemple de moyenne de sondage peut être trouvé ici : Moyenne de sondage pour l'élection présidentielle de 2008. Une autre source d'erreur provient des modèles démographiques défectueux des sondeurs qui pondèrent leurs échantillons en fonction de variables particulières telles que l'identification du parti lors d'une élection. Par exemple, si vous supposez que la répartition de la population des États-Unis par identification de parti n'a pas changé depuis l'élection présidentielle précédente, vous pouvez sous-estimer une victoire ou une défaite d'un candidat de parti particulier qui a connu une augmentation ou une baisse de son enregistrement de parti par rapport à le précédent cycle de l'élection présidentielle.

Une mise en garde est qu'une estimation d'une tendance est sujette à une erreur plus importante qu'une estimation d'un niveau. En effet, si l'on estime le changement, la différence entre deux nombres X et Oui, alors il faut faire face à des erreurs dans les deux X et Oui. Un guide approximatif est que si le changement de mesure tombe en dehors de la marge d'erreur, il vaut la peine d'être pris en compte.

Biais de non-réponse Modifier

Étant donné que certaines personnes ne répondent pas aux appels d'étrangers ou refusent de répondre au sondage, les échantillons de sondage peuvent ne pas être représentatifs d'une population en raison d'un biais de non-réponse. Les taux de réponse ont diminué et sont tombés à environ 10 % ces dernières années. [17] En raison de ce biais de sélection, les caractéristiques de ceux qui acceptent d'être interviewés peuvent être très différentes de ceux qui refusent. C'est-à-dire que l'échantillon réel est une version biaisée de l'univers que le sondeur veut analyser. Dans ces cas, le biais introduit de nouvelles erreurs, d'une manière ou d'une autre, qui s'ajoutent aux erreurs causées par la taille de l'échantillon. L'erreur due au biais ne diminue pas avec des tailles d'échantillon plus grandes, car prendre une taille d'échantillon plus grande ne fait que répéter la même erreur à plus grande échelle. Si les personnes qui refusent de répondre, ou ne sont jamais jointes, ont les mêmes caractéristiques que les personnes qui répondent, alors les résultats finaux doivent être impartiaux. Si les personnes qui ne répondent pas ont des opinions différentes, alors il y a un biais dans les résultats. En termes de sondages électoraux, des études suggèrent que les effets de biais sont faibles, mais chaque société de sondage a ses propres techniques pour ajuster les poids afin de minimiser les biais de sélection. [18] [19]

Biais de réponse Modifier

Les résultats de l'enquête peuvent être affectés par un biais de réponse, lorsque les réponses données par les répondants ne reflètent pas leurs véritables convictions. Cela peut être délibérément conçu par des sondeurs sans scrupules afin de générer un certain résultat ou de plaire à leurs clients, mais est le plus souvent le résultat de la formulation détaillée ou de l'ordre des questions (voir ci-dessous). Les personnes interrogées peuvent délibérément essayer de manipuler le résultat d'un sondage, par ex. prôner une position plus extrême que ce qu'ils ont en réalité pour renforcer leur argumentation ou donner des réponses rapides et inconsidérées afin de hâter la fin de leur questionnement. Les personnes interrogées peuvent également se sentir sous pression sociale pour ne pas donner une réponse impopulaire. Par exemple, les répondants pourraient ne pas vouloir admettre des attitudes impopulaires comme le racisme ou le sexisme, et ainsi les sondages pourraient ne pas refléter la véritable incidence de ces attitudes dans la population. Dans le langage politique américain, ce phénomène est souvent appelé l'effet Bradley. Si les résultats des enquêtes sont largement diffusés, cet effet peut être amplifié - un phénomène communément appelé la spirale du silence.

L'utilisation du système de vote à la pluralité (sélectionner un seul candidat) dans un sondage introduit un biais involontaire dans le sondage, puisque les personnes qui favorisent plus d'un candidat ne peuvent pas l'indiquer. Le fait qu'ils ne doivent choisir qu'un seul candidat biaise le sondage, l'amenant à favoriser le candidat le plus différent des autres alors qu'il défavorise les candidats qui sont similaires aux autres candidats. Le système de scrutin majoritaire biaise également les élections de la même manière.

Certaines personnes qui répondent peuvent ne pas comprendre les mots utilisés, mais peuvent souhaiter éviter l'embarras de l'admettre, ou le mécanisme de sondage peut ne pas permettre de clarification, de sorte qu'ils peuvent faire un choix arbitraire. Un certain pourcentage de personnes répondent également par caprice ou par agacement d'être interrogés. Cela se traduit par peut-être 4% des Américains déclarant avoir été personnellement décapités. [20]

Formulation des questions Modifier

Parmi les facteurs qui influent sur les résultats des sondages d'opinion, figurent la formulation et l'ordre des questions posées par l'enquêteur. Les questions qui affectent intentionnellement la réponse d'un répondant sont appelées questions suggestives. Des individus et/ou des groupes utilisent ce type de questions dans les enquêtes pour obtenir des réponses favorables à leurs intérêts. [21]

Par exemple, le public est plus susceptible d'indiquer son soutien à une personne qui est décrite par l'enquêteur comme l'un des « candidats principaux ». Cette description est « principale » car elle indique un biais subtil pour ce candidat, car elle implique que les autres dans la course ne sont pas des prétendants sérieux. De plus, les questions suggestives contiennent souvent, ou manquent, certains faits qui peuvent influencer la réponse d'un répondant. Les questions argumentatives peuvent également avoir une incidence sur le résultat d'un sondage. Ces types de questions, selon leur nature, positive ou négative, influencent les réponses des répondants pour refléter le ton de la ou des questions et générer une certaine réponse ou réaction, plutôt que d'évaluer le sentiment de manière impartiale. [22]

Dans les sondages d'opinion, il existe également des « questions chargées », autrement appelées « questions pièges ». Ce type de question suggestive peut concerner un sujet inconfortable ou controversé, et/ou supposer automatiquement que le sujet de la question est lié au(x) répondant(s) ou qu'ils en sont bien informés. De même, les questions sont ensuite formulées de manière à limiter les réponses possibles, généralement par oui ou par non. [23]

Un autre type de question qui peut produire des résultats inexacts sont les « questions doublement négatives ». Celles-ci sont plus souvent le résultat d'une erreur humaine que d'une manipulation intentionnelle. Un tel exemple est une enquête réalisée en 1992 par l'Organisation Roper, concernant l'Holocauste. La question était : « Vous semble-t-il possible ou impossible que l'extermination des Juifs par les Nazis n'ait jamais eu lieu ? La formulation confuse de cette question a conduit à des résultats inexacts qui ont indiqué que 22% des personnes interrogées pensaient qu'il semblait possible que l'Holocauste n'ait jamais eu lieu. Lorsque la question a été reformulée, beaucoup moins de répondants (seulement 1 %) ont exprimé le même sentiment. [24]

Ainsi, les comparaisons entre les sondages se résument souvent à la formulation de la question. Sur certaines questions, la formulation des questions peut entraîner des différences assez prononcées entre les enquêtes. [25] [26] Cela peut aussi, cependant, être le résultat de sentiments légitimement conflictuels ou d'attitudes évolutives, plutôt que d'une enquête mal construite. [27]

Une technique courante pour contrôler ce biais consiste à alterner l'ordre dans lequel les questions sont posées. De nombreux sondeurs ont également fractionné l'échantillon. Cela implique d'avoir deux versions différentes d'une question, chaque version étant présentée à la moitié des répondants.

Les contrôles les plus efficaces, utilisés par les chercheurs en attitude, sont :

  • poser suffisamment de questions pour permettre de couvrir tous les aspects d'un problème et de contrôler les effets dus à la forme de la question (comme une formulation positive ou négative), l'adéquation du nombre étant établie quantitativement avec des mesures psychométriques telles que les coefficients de fiabilité, et
  • analyser les résultats avec des techniques psychométriques qui synthétisent les réponses en quelques scores fiables et détectent les questions inefficaces.

Ces contrôles ne sont pas largement utilisés dans l'industrie des sondages. [ Pourquoi? ] . Cependant, comme il est important que les questions pour tester le produit soient de haute qualité, les méthodologistes d'enquête travaillent sur des méthodes pour les tester. Des tests empiriques donnent un aperçu de la qualité du questionnaire, certains peuvent être plus complexes que d'autres. Par exemple, tester un questionnaire peut être fait en :

  • mener des entretiens cognitifs. En interrogeant un échantillon de répondants potentiels sur leur interprétation des questions et l'utilisation du questionnaire, un chercheur peut
  • effectuer un petit pré-test du questionnaire, en utilisant un petit sous-ensemble de répondants cibles. Les résultats peuvent informer un chercheur d'erreurs telles que des questions manquantes ou des erreurs logiques et procédurales.
  • estimer la qualité de mesure des questions. Cela peut être fait par exemple en utilisant des modèles test-retest, [28] quasi-simplex, [29] ou mutlittrait-multiméthode. [30]
  • prédire la qualité de mesure de la question. Cela peut être fait en utilisant le logiciel Survey Quality Predictor (SQP). [31]

Façades involontaires et fausses corrélations Modifier

L'une des critiques des sondages d'opinion est que les hypothèses sociétales selon lesquelles les opinions entre lesquelles il n'y a pas de lien logique sont des « attitudes corrélées » peuvent pousser les personnes ayant une opinion dans un groupe qui les oblige à prétendre avoir une opinion soi-disant liée mais en réalité sans rapport. Cela, à son tour, peut amener les personnes qui ont la première opinion à prétendre dans les sondages qu'elles ont la deuxième opinion sans l'avoir, ce qui fait que les sondages d'opinion font partie des problèmes de prophétie auto-réalisatrice. Il a été suggéré que les tentatives de contrecarrer les opinions contraires à l'éthique en condamnant les opinions prétendument liées peuvent favoriser les groupes qui promeuvent les opinions réellement contraires à l'éthique en forçant des personnes ayant des opinions supposées liées à les adopter par ostracisme ailleurs dans la société, ce qui rend ces efforts contre-productifs, ne pas être envoyés entre les groupes. qui supposent des arrière-pensées les uns des autres et ne sont pas autorisés à exprimer une pensée critique cohérente où que ce soit peut créer un stress psychologique parce que les humains sont intelligents, et que des espaces de discussion exempts d'hypothèses d'arrière-pensées derrière des opinions spécifiques devraient être créés. Dans ce contexte, le rejet de l'hypothèse selon laquelle les sondages d'opinion montrent des liens réels entre les opinions est considéré comme important. [32] [33]

Biais de couverture Modifier

Une autre source d'erreur est l'utilisation d'échantillons non représentatifs de la population en raison de la méthodologie utilisée, comme l'a été l'expérience de Le condensé littéraire en 1936. Par exemple, l'échantillonnage par téléphone comporte une erreur intrinsèque car à de nombreuses reprises et en de nombreux endroits, ceux qui ont un téléphone ont généralement été plus riches que ceux qui n'en ont pas.

Dans certains endroits, de nombreuses personnes n'ont que des téléphones portables. Étant donné que les sondeurs ne peuvent pas utiliser de numéroteurs automatiques pour appeler des téléphones portables aux États-Unis (parce que le propriétaire du téléphone peut être facturé pour avoir pris un appel [34] ), ces personnes sont généralement exclues des échantillons de sondage. Il est à craindre que, si le sous-ensemble de la population sans téléphone cellulaire diffère sensiblement du reste de la population, ces différences peuvent fausser les résultats du sondage. [35]

Les organismes de sondage ont développé de nombreuses techniques de pondération pour aider à surmonter ces lacunes, avec plus ou moins de succès. Des études d'utilisateurs de téléphones portables menées par le Pew Research Center aux États-Unis, en 2007, ont conclu que « les répondants utilisant uniquement les téléphones portables sont différents des répondants des téléphones fixes sur des points importants, (mais) ils n'étaient ni assez nombreux ni assez différents sur les questions que nous avons examinées pour produisent un changement significatif dans les estimations globales de l'enquête sur la population générale lorsqu'elles sont incluses dans les échantillons de téléphonie fixe et pondérées selon les paramètres du recensement américain sur les caractéristiques démographiques de base. » [36]

Ce problème a été identifié pour la première fois en 2004 [37] mais n'a pris de l'importance que lors de l'élection présidentielle américaine de 2008. [38] Lors des élections précédentes, la proportion de la population générale utilisant des téléphones portables était faible, mais comme cette proportion a augmenté, il est à craindre que les sondages uniquement sur les téléphones fixes ne soient plus représentatifs de la population générale. En 2003, seulement 2,9 % des ménages étaient sans fil (téléphones cellulaires seulement), comparativement à 12,8 % en 2006.[39] Il en résulte une "erreur de couverture". De nombreux organismes de sondage sélectionnent leur échantillon en composant des numéros de téléphone au hasard. Cependant, en 2008, il y avait une nette tendance pour les sondages qui incluaient des téléphones portables dans leurs échantillons à montrer une avance beaucoup plus importante pour Obama que les sondages qui ne le faisaient pas. [40] [41]

Les sources potentielles de biais sont : [42]

  1. Certains ménages utilisent uniquement des téléphones portables et n'ont pas de ligne fixe. Cela tend à inclure les minorités et les jeunes électeurs et se produit plus fréquemment dans les zones métropolitaines. Les hommes sont plus susceptibles de n'utiliser que le téléphone portable que les femmes.
  2. Certaines personnes peuvent ne pas être joignables par téléphone fixe du lundi au vendredi et peuvent être joignables uniquement par téléphone portable.
  3. Certaines personnes n'utilisent leurs lignes fixes que pour accéder à Internet et ne répondent aux appels que sur leurs téléphones portables.

Certaines sociétés de sondage ont tenté de contourner ce problème en incluant un "supplément pour téléphone portable". L'inclusion de téléphones portables dans un sondage téléphonique pose un certain nombre de problèmes :

  1. Il est difficile d'obtenir la coopération des utilisateurs de téléphones portables, car dans de nombreuses régions des États-Unis, les utilisateurs sont facturés pour les appels sortants et entrants. Cela signifie que les sondeurs ont dû offrir une compensation financière pour obtenir leur coopération.
  2. La loi fédérale américaine interdit l'utilisation de dispositifs de numérotation automatisés pour appeler des téléphones portables (Telephone Consumer Protection Act de 1991). Les numéros doivent donc être composés à la main, ce qui prend plus de temps et coûte plus cher aux sondeurs.

Élections générales britanniques de 1992 Modifier

Un exemple souvent cité de sondages d'opinion succombant à des erreurs s'est produit lors des élections générales britanniques de 1992. Malgré les différentes méthodologies utilisées par les instituts de sondage, pratiquement tous les sondages effectués avant le scrutin, et dans une moindre mesure, les sondages à la sortie des urnes effectués le jour du scrutin, ont montré une avance pour le parti travailliste d'opposition, mais le vote lui-même a donné une nette victoire à la décision. Parti conservateur.

Dans leurs délibérations après cet embarras, les sondeurs ont avancé plusieurs idées pour expliquer leurs erreurs, notamment :

Les électeurs qui ont changé d'avis peu de temps avant de voter avaient tendance à favoriser les conservateurs, de sorte que l'erreur n'était pas aussi grave qu'elle n'y paraissait au départ. Biais de non-réponse Les électeurs conservateurs étaient moins susceptibles de participer aux sondages que par le passé et étaient donc sous-représentés. Le facteur timide tory Les conservateurs ont connu une longue période d'impopularité en raison de difficultés économiques et d'une série de scandales mineurs, conduisant à une spirale de silence dans laquelle certains partisans conservateurs hésitaient à révéler leurs intentions sincères aux sondeurs.

L'importance relative de ces facteurs était et reste un sujet de controverse, mais depuis lors, les organismes de sondage ont ajusté leurs méthodologies et ont obtenu des résultats plus précis lors des campagnes électorales ultérieures. [ citation requise ]

Une discussion complète de ces biais et de la manière dont ils doivent être compris et atténués est incluse dans plusieurs sources, dont Dillman et Salant (1994). [43]

Un échec largement médiatisé des sondages d'opinion à ce jour aux États-Unis était la prédiction que Thomas Dewey battrait Harry S. Truman lors de l'élection présidentielle américaine de 1948. Les principales organisations de sondage, dont Gallup et Roper, ont indiqué une victoire écrasante pour Dewey. Les élections présidentielles de 1952, 1980, 1996, 2000 et 2016 ont également été marquées par d'importantes erreurs de sondage [44].

Au Royaume-Uni, la plupart des sondages n'ont pas prédit les victoires électorales des conservateurs de 1970 et 1992, et la victoire des travaillistes en février 1974. Lors des élections de 2015, pratiquement tous les sondages prédisaient un parlement sans majorité avec les travaillistes et les conservateurs au coude à coude lorsque le résultat réel était une nette majorité conservatrice. En revanche, en 2017, l'inverse semble s'être produit. La plupart des sondages prédisaient une majorité conservatrice accrue, même si en réalité les élections ont abouti à un parlement sans majorité avec une pluralité conservatrice. Cependant, certains sondages ont correctement prédit ce résultat.

En Nouvelle-Zélande, les sondages qui ont précédé les élections générales de 1993 prédisaient une victoire confortable du Parti national au pouvoir. Cependant, les résultats préliminaires le soir des élections ont montré un parlement sans majorité avec un siège de moins que la majorité pour le National, ce qui a conduit le Premier ministre Jim Bolger à s'exclamer « enculer les sondeurs » à la télévision nationale. [45] [46] Le décompte officiel a vu National ramasser Waitaki pour tenir une majorité d'un siège et réformer le gouvernement.

Les médias sociaux sont aujourd'hui un moyen populaire pour les candidats de faire campagne et pour évaluer la réaction du public aux campagnes. Les médias sociaux peuvent également être utilisés comme indicateur de l'opinion des électeurs concernant le sondage. Certaines études de recherche ont montré que les prédictions faites à l'aide des signaux des médias sociaux peuvent correspondre aux sondages d'opinion traditionnels. [8] [9]

En ce qui concerne l'élection présidentielle américaine de 2016, une préoccupation majeure a été celle de l'effet des fausses histoires diffusées dans les médias sociaux. Les preuves montrent que les médias sociaux jouent un rôle énorme dans la fourniture d'informations : 62 % des adultes américains reçoivent des informations sur les médias sociaux. [47] Ce fait rend la question des fake news sur les réseaux sociaux plus pertinente. D'autres preuves montrent que les fausses nouvelles les plus populaires ont été plus largement partagées sur Facebook que les nouvelles les plus populaires. . À la suite de ces faits, certains ont conclu que sans ces histoires, Donald Trump n'aurait peut-être pas remporté les élections contre Hillary Clinton. [48]

Effet sur les électeurs Modifier

En fournissant des informations sur les intentions de vote, les sondages d'opinion peuvent parfois influencer le comportement des électeurs, et dans son livre La boussole cassée, Peter Hitchens affirme que les sondages d'opinion sont en fait un moyen d'influencer l'opinion publique. [49] Les diverses théories sur la façon dont cela se produit peuvent être divisées en deux groupes : les effets d'entraînement/outsider et le vote stratégique ("tactique").

Un effet d'entraînement se produit lorsque le sondage invite les électeurs à soutenir le candidat qui a remporté le scrutin. L'idée que les électeurs sont sensibles à de tels effets est ancienne, elle remonte au moins à 1884. William Safire a rapporté que le terme a été utilisé pour la première fois dans une caricature politique du magazine. Palet cette année-là. [50] Il est également resté persistant malgré un manque de corroboration empirique jusqu'à la fin du 20ème siècle. George Gallup a déployé beaucoup d'efforts en vain pour essayer de discréditer cette théorie en son temps en présentant des recherches empiriques. Une méta-étude récente de la recherche scientifique sur ce sujet indique qu'à partir des années 1980, l'effet Bandwagon est plus souvent trouvé par les chercheurs. [51]

L'opposé de l'effet d'entraînement est l'effet outsider. Il est souvent évoqué dans les médias. Cela se produit lorsque les gens votent, par sympathie, pour le parti perçu comme « perdant » les élections. Il y a moins de preuves empiriques de l'existence de cet effet que de l'existence de l'effet d'entraînement. [51]

La deuxième catégorie de théories sur la façon dont les sondages affectent directement le vote est appelée vote stratégique ou tactique. Cette théorie repose sur l'idée que les électeurs considèrent l'acte de voter comme un moyen de choisir un gouvernement. Ainsi, ils ne choisiront parfois pas le candidat qu'ils préfèrent pour des raisons d'idéologie ou de sympathie, mais un autre candidat, moins préféré, pour des considérations stratégiques. On peut en trouver un exemple lors des élections générales de 1997 au Royaume-Uni. Comme il était alors ministre du Cabinet, la circonscription d'Enfield Southgate de Michael Portillo était considérée comme un siège sûr, mais les sondages d'opinion ont montré que le candidat travailliste Stephen Twigg gagnait régulièrement du soutien, ce qui a peut-être incité des électeurs indécis ou des partisans d'autres partis à soutenir Twigg afin pour supprimer Portillo. Un autre exemple est l'effet boomerang où les partisans probables du candidat déclaré vainqueur estiment que les chances sont minces et que leur vote n'est pas requis, permettant ainsi à un autre candidat de gagner.

De plus, Mark Pickup, dans Cameron Anderson et Laura Stephenson's Comportement de vote au Canada, décrit trois réponses « comportementales » supplémentaires que les électeurs peuvent présenter lorsqu'ils sont confrontés aux données des sondages. Le premier est connu sous le nom d'effet de « repérage » qui maintient que les données du sondage sont utilisées comme « proxy » pour obtenir des informations sur les candidats ou les partis. La prise de repère est "basée sur le phénomène psychologique de l'utilisation d'heuristiques pour simplifier une décision complexe" (243). [52]

La seconde, décrite pour la première fois par Petty et Cacioppo (1996), est connue sous le nom de théorie de la « réponse cognitive ». Cette théorie affirme que la réponse d'un électeur à un sondage peut ne pas correspondre à sa conception initiale de la réalité électorale. En réponse, l'électeur est susceptible de générer une « liste mentale » dans laquelle il crée les raisons de la perte ou du gain d'un parti dans les sondages. Cela peut renforcer ou changer leur opinion sur le candidat et ainsi affecter le comportement de vote. Troisièmement, la dernière possibilité est une "réponse comportementale" qui est similaire à une réponse cognitive. La seule différence marquante est qu'un électeur ira chercher de nouvelles informations pour constituer sa « liste mentale », devenant ainsi plus informé de l'élection. Cela peut alors affecter le comportement de vote.

Ces effets indiquent comment les sondages d'opinion peuvent affecter directement les choix politiques de l'électorat. Mais directement ou indirectement, d'autres effets peuvent être sondés et analysés sur tous les partis politiques. La forme du cadrage médiatique et les changements idéologiques des partis doivent également être pris en considération. Les sondages d'opinion sont dans certains cas une mesure du biais cognitif, qui est variablement pris en compte et traité de manière appropriée dans ses diverses applications.

Effet sur les politiciens Modifier

À partir des années 1980, le suivi des sondages et des technologies connexes a commencé à avoir un impact notable sur les dirigeants politiques américains. [53] Selon Douglas Bailey, un républicain qui avait aidé à diriger la campagne présidentielle de Gerald Ford en 1976, « Il n'est plus nécessaire pour un candidat politique de deviner ce que pense un public. Il peut [le découvrir] avec un sondage de suivi nocturne. il n'est plus probable que les dirigeants politiques dirigent. Au lieu de cela, ils vont suivre. " [53]

Certaines juridictions dans le monde restreignent la publication des résultats des sondages d'opinion, en particulier pendant la période entourant une élection, afin d'éviter que des résultats éventuellement erronés n'affectent les décisions des électeurs. Par exemple, au Canada, il est interdit de publier les résultats de sondages d'opinion qui identifieraient des partis politiques ou des candidats spécifiques dans les trois derniers jours avant la clôture d'un scrutin. [54]

Cependant, la plupart des nations démocratiques occidentales ne soutiennent pas l'interdiction totale de la publication des sondages d'opinion préélectoraux, la plupart d'entre elles n'ont aucune réglementation et certaines ne l'interdisent que dans les derniers jours ou heures jusqu'à la clôture du scrutin concerné. [55] Un sondage de la Commission royale sur la réforme électorale du Canada a indiqué que la période d'interdiction de publication des résultats du sondage différait largement d'un pays à l'autre. Sur les 20 pays examinés, 3 interdisent la publication pendant toute la durée des campagnes, tandis que d'autres l'interdisent pour une durée plus courte comme la période de vote ou les dernières 48 heures avant la clôture d'un scrutin. [54] En Inde, la Commission électorale l'a interdit dans les 48 heures précédant le début du scrutin.


Élection 2016 : Sortez des urnes

Les données pour 2016 ont été collectées par Edison Research pour le National Election Pool, un consortium d'ABC News, The Associated Press, CBSNews, CNN, Fox News et NBC News. L'enquête auprès des électeurs est basée sur des questionnaires remplis par 24 537 électeurs quittant 350 bureaux de vote à travers les États-Unis le jour du scrutin, dont 4 398 entretiens téléphoniques avec des électeurs anticipés et absents.

En 2012, 2008 et 2004, le sondage de sortie a été mené par Edison/Mitofsky en 1996 et 2000 par Voter News Services en 1992 par Voter Research and Surveys et les années précédentes par The New York Times et CBS News.

Les comparaisons directes d'une année à l'autre devraient tenir compte des différences dans la façon dont les questions ont été posées. La race et le sexe ont été déterminés par les enquêteurs dans les enquêtes avant 1984. Les candidats indépendants ou tiers ne sont pas présentés.

L'échelle de la population est représentative du nombre d'électeurs dans chaque catégorie.

* Le changement est indiqué en points de pourcentage. Lorsque des données comparables sont disponibles, cette mesure combine l'évolution du soutien républicain et l'évolution du soutien démocrate par rapport aux élections précédentes.


Q&A : Les sondages politiques et les élections de 2016

Des électeurs ont voté dans une caserne de pompiers à Alhambra, en Californie, le 8 novembre 2016. (Ringo Chiu/AFP/Getty Images)

Le résultat de l'élection présidentielle de 2016 a surpris beaucoup de monde, notamment les nombreux sondeurs et analystes politiques qui la couvrent. Aujourd'hui, l'Association américaine pour la recherche sur l'opinion publique (AAPOR), la principale organisation nationale de chercheurs en sondages, a publié un rapport très attendu qui examine les sondages au cours des longues campagnes électorales primaires et générales de l'année dernière.

Courtney Kennedy, directrice de la recherche par sondage au Pew Research Center

Courtney Kennedy, directrice de la recherche par sondage du Pew Research Center, a présidé le groupe de travail AAPOR qui a produit le rapport. Nous nous sommes récemment assis avec Kennedy pour discuter de ses conclusions et recommandations. La conversation a été condensée et éditée pour plus de clarté et de concision.

Depuis la victoire de Donald Trump sur Hillary Clinton l'année dernière, il y a eu beaucoup de critiques sur les performances et la fiabilité des sondages. Est-ce là l'impulsion de ce rapport ?

En fait, ce comité a été organisé en mai 2016, des mois avant que l'un d'entre nous ait eu la moindre idée que l'année dernière serait une année particulièrement inhabituelle pour les sondages. L'intention initiale était assez simple : évaluer la performance des sondages, à la fois lors de la saison des primaires et des élections générales, afin de comparer leur performance par rapport aux années précédentes et, dans la mesure où les données le corroboraient, évaluer si certains types de sondages - en ligne contre téléphone, en direct contre automatisé – a fait mieux ou moins bien que les autres.

Mais à environ minuit le 8 novembre, il était clair que ce que le comité devait faire avait changé. Nous ne pouvions pas faire ce type de rapport très technique, "quel était l'écart moyen". Il nous fallait, en plus, considérer une autre question : « Pourquoi les sondages semblaient-ils systématiquement sous-estimer le soutien à Donald Trump ? Il y avait déjà un certain nombre d'hypothèses qui circulaient – ​​comme l'effet dit « Trump timide » (les partisans de Trump étant moins disposés que d'autres à divulguer leur soutien à un intervieweur), la non-réponse différentielle (les partisans de Trump étant moins susceptibles que les autres de participer dans les sondages), des choses de cette nature - et nous nous sommes sentis obligés de prendre en charge cette pièce supplémentaire.

Le rapport note que, alors que les sondages nationaux étaient généralement assez proches du vote populaire national réel (que Clinton a remporté par 2,1 points de pourcentage sur Trump), la performance des sondages au niveau de l'État - où les élections présidentielles sont réellement décidées - était beaucoup plus pointu. Quelles raisons avez-vous trouvées pour cela ?

Nous avons trouvé des preuves de plusieurs causes potentielles. Un facteur qui, je pense, a affecté tous ceux qui votaient dans les États du champ de bataille, est le changement tardif légitime des préférences des électeurs au cours de la dernière semaine avant le jour du scrutin. Les données à ce sujet ont leurs limites, mais la meilleure source est le sondage de sortie du National Election Pool, qui pose une question sur le moment où les électeurs ont décidé pour qui voter dans la course présidentielle. Cela a montré plusieurs oscillations d'environ 20 points en faveur de Trump parmi les électeurs qui se sont décidés au cours de la dernière semaine. Vous n'avez pas vraiment vu cela à l'échelle nationale, mais en Pennsylvanie, au Michigan, au Wisconsin et même en Floride, vous avez vu ce qui ressemble à un mouvement dramatique.

C'est en quelque sorte une bonne ou une mauvaise nouvelle pour les sondeurs. La bonne nouvelle est que si vous avez interrogé des personnes à un moment donné et qu'elles ont changé d'avis plusieurs jours plus tard, le sondage ne l'aurait pas détecté. Ce n'est pas un défaut du sondage, sauf peut-être avec la période de terrain au cours de laquelle le sondeur a décidé de faire la collecte de données. Mais il n'y a fondamentalement rien qui était nécessairement éteint si ce qui générait la plupart de l'erreur n'était que des changements d'opinion honnêtes.

Qu'avez-vous trouvé d'autre au niveau de l'État ?

Une autre conclusion intéressante concernait le niveau d'éducation des répondants au sondage. Un certain nombre d'études ont montré qu'en général, les personnes ayant des niveaux d'éducation formelle plus élevés sont plus susceptibles de participer à des enquêtes - c'est une conclusion très solide. Des endroits comme le Pew Research Center et d'autres le savent depuis des années, et nous abordons cela avec notre pondération statistique - c'est-à-dire que nous demandons aux gens quel est leur niveau d'éducation et alignons nos données d'enquête afin qu'elles correspondent à la population américaine en matière d'éducation. Et je pense que beaucoup d'entre nous ont supposé que c'était une pratique courante dans l'industrie - que grosso modo, tout le monde le faisait. Et ce n'est pas ce que nous avons trouvé. Au niveau de l'État, le plus souvent, les sondages n'étaient pas ajustés pour l'éducation.

Maintenant, lors de certaines élections, comme en 2012, cela n'aurait pas d'importance, car les très peu instruits et les très instruits ont voté à peu près de la même manière. Mais 2016 a été radicalement différente – vous aviez une relation linéaire assez forte entre l'éducation et le vote présidentiel. Et cela signifiait que si vous aviez trop de diplômés universitaires dans votre sondage, ce qui est le cas pour pratiquement nous tous, et que vous ne pesiez pas de manière appropriée, vous alliez presque certainement surestimer le soutien à Clinton.

Y a-t-il des facteurs possibles pour lesquels vous n'avez pas trouvé de preuves ?

Oui. Prenons l'hypothèse qu'il existe un segment de la base de soutien de Trump qui ne participe pas aux sondages. Si cela est vrai, c'est un énorme problème pour des organisations comme la nôtre, et nous devons étudier cela et le comprendre si nous voulons le résoudre un jour. Mais nous avons cherché des preuves de cela, et nous ne les avons pas trouvées.

S'il est vrai qu'il nous manque un segment de la base de soutien de Trump, nous nous attendrions à découvrir – sans faire aucune pondération fantaisiste, en regardant simplement les données brutes – que les habitants des régions les plus rurales et les plus rouges du pays seraient sous-représenté. Et nous n'avons pas trouvé que si quoi que ce soit, ils étaient légèrement surreprésentés. Nous avons fait un certain nombre de choses avec un œil critique à la recherche de ces types de problèmes, et nous ne les avons pas trouvés. Et donc cela m'a vraiment rassuré que fondamentalement, ce n'est pas que le processus de réalisation des sondages a été interrompu l'année dernière.

Qu'est-ce que la profession peut faire, le cas échéant, pour résoudre les problèmes que le comité a trouvés avec les sondages d'État et locaux, d'autant plus que tant de journaux et de chaînes de télévision qui les ont historiquement parrainés ne peuvent plus se permettre de le faire au même niveau ?

De nombreuses preuves montrent que les ressources dont disposent les agences de presse pour les sondages semblent diminuer au fil du temps, et cela a deux effets, je pense : en utilisant une méthodologie à très faible coût. Ce que le rapport montre, c'est qu'il existe des différences de conception importantes entre les sondages nationaux, qui ont tendance à être assez bien dotés en ressources, par rapport aux sondages d'État, qui ont tendance à être effectués beaucoup plus rapidement en utilisant des méthodes plus automatisées avec moins de ressources. Les sondages d'État sont deux fois moins susceptibles que les sondages nationaux d'avoir des intervieweurs en direct, et ils sont environ deux fois moins susceptibles d'avoir ajusté leur pondération en fonction de l'éducation, ce que nous savons être important. Il y a donc ces éléments structurels qui semblent avoir aggravé l'écart de performance entre ces sondages d'État et les sondages nationaux. Nous savons qu'en moyenne, ils le font différemment et d'une manière qui a produit une plus grande erreur dans cette élection. Il est également vrai qu'au fil du temps, vous voyez simplement qu'il y a plus d'erreurs dans les sondages au niveau de l'État.

Je pourrais donc imaginer qu'une association professionnelle comme l'AAPOR pourrait étudier si cela pourrait être résolu, soit par la formation professionnelle, soit même en essayant d'organiser le financement d'enquêtes plus rigoureuses au niveau de l'État, menées très près du jour des élections, afin d'attraper les personnes qui changer d'avis tard. Cela serait évidemment fait par des chercheurs qui utilisent des protocoles de pondération très sophistiqués et à la pointe de la technologie, de sorte que vous n'avez pas des choses comme cet incident d'éducation. On ne sait pas si cela résoudrait complètement le problème, mais au moins, vous auriez alors une infusion de sondages de meilleure qualité dans cet ensemble de sondages qui, en moyenne, sont effectués à un prix relativement bas.

Un autre élément du cycle électoral de 2016 a été l'importance, même au-delà des sondages individuels eux-mêmes, des opérations d'analyse de données et des sites d'information qui ont agrégé les sondages et les ont utilisés non seulement pour prédire le résultat final, mais aussi pour donner des probabilités très précises que Clinton ou Trump gagnerait. Dans quelle mesure est-il approprié ou utile d'utiliser les sondages comme outils prédictifs ?

Les sondages ne sont pas conçus pour produire une précision de l'ordre de « Untel a XX % de chances de gagner. » Il y avait en fait une assez grande diversité d'opinions au sein du comité sur cette question : plus agressifs en mettant l'accent sur cette distinction entre les prédicteurs et les sondeurs d'autres moins.

Mais il y a une distinction. Sondage et pronostic sont vraiment deux entreprises différentes. Un sondage d'opinion bien fait peut vous dire quelle était l'opinion au moment où l'entretien a été effectué, mais cela ne parle pas vraiment de manière précise du comportement futur. Cela a déjà été dit, mais il convient de le répéter : un sondage est un instantané dans le temps, pas un moyen de prédire ce qui va se passer. Comme nous le disons dans le rapport, une plus grande prudence et humilité semblerait de mise pour quiconque fait des déclarations sur le résultat probable d'une élection basée en partie ou en totalité sur les données des sondages.

Là où les sondages peuvent être utiles, c'est pour aider à répondre à des questions importantes sur ce qui motive les électeurs, pourquoi les gens votent ou ne votent pas, ce qu'ils pensent des politiques débattues, ce qu'ils pensent des candidats eux-mêmes. Toutes ces questions méritent plus que des réponses sérieuses, et c'est ce pour quoi les sondages sont vraiment mieux conçus.

Alors, peut-on encore faire confiance aux sondages malgré ce qui s'est passé l'année dernière ?

Je crois qu'ils peuvent. Tout d'abord, il convient de souligner que la performance des sondages électoraux n'est pas un bon indicateur de la qualité des sondages en général. Les sondages électoraux diffèrent des autres types d'enquêtes à certains égards : non seulement ils doivent réunir un échantillon représentatif du public, mais ils doivent également modéliser correctement qui parmi cet échantillon votera réellement. C'est une tâche très difficile que les sondages non électoraux n'ont tout simplement pas.

Il est important de dissiper l'idée que les sondages au sens large sont cassés - notre enquête a révélé que ce n'était pas le cas. En même temps, nous ne devrions pas blanchir ce qui s'est passé. Il y a eu des erreurs et l'industrie des sondages a pris un coup à sa réputation. Mais la communauté des sondages et les consommateurs de sondages devraient être rassurés par le fait que nous avons beaucoup compris ce qui n'a pas fonctionné et pourquoi, et nous pouvons tous apprendre de ces erreurs. Certaines choses échappaient au contrôle des sondeurs, à savoir les changements tardifs des préférences des électeurs, d'autres étaient sous leur contrôle et pouvaient être corrigés. Le déséquilibre de l'éducation, par exemple, est très réparable.

En tant que chercheurs, nous devrions parler de toute l'histoire des sondages en 2016 - les différences entre les sondages nationaux et les sondages d'État, le fait que nous ayons identifié les principaux facteurs qui ont conduit aux erreurs - de manière ouverte et non défensive, pour dissiper le récit « l'interrogation est rompue ». Ce récit ne rend pas service à notre démocratie. Parce que les sondages, aussi imparfaits soient-ils, restent le meilleur outil disponible pour mesurer les attitudes des tous Les Américains. Et quand c'est bien fait, ça peut encore produire des données très utiles. Quel que soit le parti au pouvoir, il est important d'avoir des chercheurs indépendants et objectifs qui mesurent ce que le public pense des grands problèmes du jour.


Comment savons-nous que Trump est en difficulté ? Regardez les sondages de 2016 de la semaine précédant les élections

Le candidat démocrate à la présidentielle et ancien vice-président Joe Biden, à gauche, et le président Donald Trump participent au débat présidentiel final à l'Université Belmont à Nashville, Tenn., le 22 octobre 2020.

JIm Bourg / AFP / Getty Images

Cet article est le sixième d'une série de sept parties. Chaque mardi d'ici le jour du scrutin, le SFGATE rendra compte de la comparaison entre les moyennes des sondages pour l'élection présidentielle de 2020 et les moyennes des sondages au même moment pour l'élection présidentielle de 2016. Après les élections, le SFGATE examinera si les sondages de 2020 étaient plus ou moins précis que ceux de 2016.

À une semaine de l'élection présidentielle de 2016, la forte avance nationale d'Hillary Clinton s'était pratiquement évaporée après l'annonce de l'ancien directeur du FBI James Comey que le bureau rouvrirait son enquête sur les e-mails de Clinton et provoquera une énorme tournure dans une course en seulement 11 jours. avant le jour des élections.

L'avance nationale de Clinton était tombée à 3,5% sur FiveThirtyEight et à 1,7% sur RealClearPolitics & mdash, des chiffres très proches de sa marge finale de vote populaire national de +2,1%. Je le dis pour la 1 000e fois depuis que nous avons commencé cette série : les sondages nationaux étaient assez précis en 2016. Ils n'étaient pas le problème.

En 2020, l'avance nationale de Joe Biden a diminué au cours de la semaine dernière, mais elle ne se contracte pas seulement à un rythme plus lent que Donald Trump évaporé de Clinton doit regagner beaucoup plus de terrain contre Biden qu'il ne l'a fait contre Clinton. Après avoir brièvement dominé au niveau national à deux chiffres, l'avance de Biden est tombée à 9,5% sur FiveThirtyEight et à 7,8% sur RealClearPolitics, ce qui reste une position beaucoup, beaucoup plus forte que celle d'Hillary Clinton à une semaine de la fin.

Pour cet exercice, supposons que, comme en 2016, le vote populaire national final se situe quelque part entre FiveThirtyEight et les moyennes de RealClearPolitics sept jours avant le jour du scrutin. Cela signifie une victoire du vote populaire de Biden d'environ 8% environ. Alors que Trump peut très certainement gagner le Collège électoral sans remporter le vote populaire comme il l'a fait en 2016, il est hautement, hautement improbable, voire impossible, qu'il remporte le Collège électoral tout en perdant le vote populaire de 8%.

Lorsque Trump a perdu le vote populaire de 2,1% en 2016, il a remporté une victoire du Collège électoral avec une marge de moins de 80 000 voix dans le Michigan, le Wisconsin et la Pennsylvanie. Alors que le président a certainement un avantage du Collège électoral qui lui permet de perdre le vote populaire par une marge substantielle, il n'est certainement pas assez fort pour résister à une perte de huit points à l'échelle nationale.

Même en regardant les sondages des États, il est clair que Biden a une avance plus forte que Clinton dans le Michigan, l'Arizona, la Floride et la Caroline du Nord. L'avance de Biden est similaire à celle de Clinton dans le Wisconsin et en Pennsylvanie, mais cela peut être au moins partiellement attribué au fait qu'aucun des deux États n'a été fortement interrogé au cours des dernières semaines de la course de 2016, car les deux étaient considérés comme des États quelque peu sûrs pour les démocrates.

Bien sûr, la course n'est pas encore terminée, et si l'avance nationale de Biden se rétrécit encore au cours de la dernière semaine, ce qui ne peut pas être exclu après que le président Trump a réalisé une performance de débat beaucoup plus forte la semaine dernière que lors du premier débat &mdash, il pourrait certainement être à nouveau compétitif, en supposant une erreur de sondage nationale.

Mais à partir d'aujourd'hui, il semble que le président va devoir espérer que les sondages sont plus faux qu'ils ne l'étaient en 2016, ce qui n'est pas un bon endroit étant donné que les sondeurs ont fait des ajustements importants au cours des quatre dernières années et les gens oublient souvent que les sondages de 2012 étaient en fait trop pro-Mitt Romney.

Sondages nationaux

FiveThirtyEight en moyenne une semaine avant le jour des élections en 2016 : Hillary Clinton 45,0%, Donald Trump 41,5% (Clinton +3,5%, était Clinton +6,1% semaine précédente)

FiveThirtyEight en moyenne une semaine avant le jour des élections en 2020 : Joe Biden 52,3%, Donald Trump 42,8% (Biden +9,5%, était Biden +10,7% semaine précédente)

RealClearPolitics en moyenne une semaine avant le jour des élections en 2016 : Hillary Clinton 47,0%, Donald Trump 45,3% (Clinton +1,7%, était Clinton +5,5% semaine précédente)

RealClearPolitics en moyenne une semaine avant le jour des élections en 2020 : Joe Biden 50,8%, Donald Trump 43,0% (Biden +7,8%, était Biden +8,9% semaine précédente)

Vote populaire national réel en 2016 : Hillary Clinton 48,2%, Donald Trump 46,1% (Clinton +2,1%)

Pennsylvanie

FiveThirtyEight a projeté la part des votes une semaine avant le jour des élections en 2016 : Hillary Clinton 49,4 %, Donald Trump 44,9 % (Clinton +4,5 %, était Clinton +6,5% semaine précédente)

FiveThirtyEight en moyenne une semaine avant le jour du scrutin en 2020 : Joe Biden 50,2 %, Donald Trump 45,1 % (Biden +5,1%, était Biden +6,7% semaine précédente)

RealClearPolitics en moyenne une semaine avant le jour des élections en 2016 : Hillary Clinton 47,9%, Donald Trump 42,8% (Clinton +5,1%, était Clinton +4,3% semaine précédente)

RealClearPolitics en moyenne une semaine avant le jour des élections en 2020 : Joe Biden 49,8%, Donald Trump 45,0% (Biden +4,8%, était Biden +4,4% semaine précédente)

Résultats réels de la Pennsylvanie en 2016 : Donald Trump 48,2 %, Hillary Clinton 47,5 % (Atout +0,7%)

FiveThirtyEight a projeté la part des votes une semaine avant le jour des élections en 2016 : Hillary Clinton 49,3 %, Donald Trump 44,9 % (Clinton +4,4%, était Clinton +7,1% semaine précédente)

FiveThirtyEight en moyenne une semaine avant le jour des élections en 2020 : Joe Biden 51,4 %, Donald Trump 44,3 % (Biden +7,1%, était Biden +7,3% semaine précédente)

RealClearPolitics en moyenne une semaine avant le jour des élections en 2016 : Hillary Clinton 46,7%, Donald Trump 41,3% (Clinton +5,4%, était Clinton +6,5% semaine précédente)

RealClearPolitics en moyenne une semaine avant le jour des élections en 2020 : Joe Biden 49,8%, Donald Trump 44,3% (Biden +5,5%, était Biden +6,0% semaine précédente)

Résultats réels du Wisconsin en 2016 : Donald Trump 47,2 %, Hillary Clinton 46,5 % (Atout +0,7%)

FiveThirtyEight a projeté la part des votes une semaine avant le jour des élections en 2016 : Hillary Clinton 48,8 %, Donald Trump 44,1 % (Clinton +4,7%, était Clinton +7,8% semaine précédente)

FiveThirtyEight en moyenne une semaine avant le jour des élections en 2020 : Joe Biden 50,9%, Donald Trump 42,5% (Biden +8,4%, était Biden +8,0% semaine précédente)

RealClearPolitics en moyenne une semaine avant le jour des élections en 2016 : Hillary Clinton 46,7%, Donald Trump 40,3% (Clinton +6,4%, était Clinton +9,5% semaine précédente)

RealClearPolitics en moyenne une semaine avant le jour des élections en 2020 : Joe Biden 50,6 %, Donald Trump 41,6 % (Biden +9,0%, était Biden +6,8% semaine précédente)


La science de l'erreur : comment les sondages ont bâclé les élections de 2016

À la veille des élections de 2016, le site 538 de Nate Silver donnait à Clinton 71% de chances de remporter la présidence. D'autres sites qui utilisaient les techniques d'agrégation et de modélisation analytique les plus avancées disponibles avaient ses chances encore plus élevées : le New York Times avait ses chances de gagner à 84%, le Princeton Election Consortium l'avait à 95-99 % et ABC News avait appelé Clinton. était un verrou pour 274 votes électoraux - assez pour gagner - juste avant que le vote ait réellement eu lieu. Mais dans une tournure étonnante des événements, Trump a largement surpassé ce que tout le monde attendait des sondages d'État et nationaux, remportant presque tous les États tossup ainsi qu'un certain nombre d'États qui devraient favoriser Clinton, et il est le nouveau président élu. Voici la science de la façon dont cela s'est produit.

Les dernières prédictions préélectorales de Larry Sabato / University of Virginia Center for Politics. . [+] Crédit d'image : capture d'écran de 270towin sur http://www.270towin.com/maps/crystal-ball-electoral-college-ratings.

Nous aimons penser qu'avec suffisamment de données, nous pouvons traiter n'importe quel problème de manière scientifique. Cela peut, en principe, être vrai pour les prédictions de vote, et 2012 semble être un excellent exemple : où Nate Silver's 538 a correctement prédit les résultats de chaque état individuel : tous les 50. Cette fois, il y avait beaucoup de différentes qualités et grandes -des sondages de données, au moins autant qu'il y en avait en 2012. Et, plus important encore, la science derrière tout cela est simple. Si vous voulez savoir comment un échantillon de, disons, un million de personnes va voter, vous n'avez pas besoin de leur demander à un million d'entre elles de prédire le résultat. Il ne vous reste plus qu'à faire un sondage assez personnes afin que vous puissiez énoncer le résultat en toute confiance. Ainsi, vous pourriez décider de sonder 100, 500, 2 000 ou même 10 000 personnes, et constater que 52% soutiennent Clinton dans l'un de ces quatre sondages. Cependant, ce qu'ils vous disent est très différent :

  • 100 personnes : 52 % ± 10 %, avec une confiance de 95 % (2 sigma).
  • 500 personnes : 52 % ± 4,5 % avec un niveau de confiance de 95 %.
  • 2 000 personnes : 52 % ± 2,2 % avec un niveau de confiance de 95 %.
  • 10 000 personnes : 52 % ± 1,0 % avec un niveau de confiance de 95 %.

Ces types d'erreurs sont connus dans les milieux scientifiques sous le nom d'erreurs statistiques. Sondez plus de personnes et vos erreurs diminuent, et plus il y a de chances que l'échantillon que vous avez interrogé reflète avec précision ce que l'électorat fera réellement.

Une visualisation de la façon dont votre incertitude statistique diminue à mesure que la taille de votre échantillon augmente. Image. [+] crédit : Fadethree sur Wikipédia anglais.

Si vous avez un échantillon vraiment et parfaitement aléatoire de futurs électeurs, c'est le seul type d'erreur qui compte. Mais si vous ne le faites pas, il y a un autre type d'erreur que les sondages ne détecteront jamais, et c'est un type d'erreur beaucoup plus insidieux : les erreurs systématiques. Une erreur systématique est une incertitude ou une inexactitude qui ne s'améliore pas ou ne disparaît pas à mesure que vous prenez plus de données, mais un défaut inhérent à la façon dont vous collectez vos données.

  • Peut-être que les personnes que vous avez interrogées ne reflètent pas la population électorale plus large. Si vous demandez à un échantillon de gens de Staten Island comment ils voteront, c'est différent de la façon dont les gens de Manhattan – ou de Syracuse – vont voter.
  • Peut-être que les personnes que vous avez interrogées ne voteront pas dans les proportions que vous attendez. Si vous interrogez un échantillon avec 40 % de blancs, 20 % de noirs, 30 % d'hispaniques/latinos et 10 % d'Américains d'origine asiatique, mais que votre taux de participation réel est de 50 % de blancs, les résultats de votre sondage seront intrinsèquement inexacts. [Cette source d'erreur s'applique à tout groupe démographique, comme l'âge, le revenu ou l'environnement (par exemple, urbain/suburbain/rural.)]
  • Ou peut-être que la méthode de sondage est intrinsèquement peu fiable. Si 95% des personnes qui disent qu'elles voteront pour Clinton le font réellement, mais que 4% votent pour un tiers et 1% votent pour Trump, alors que 100% de celles qui disent qu'elles voteront pour Trump le font réellement, cela se traduit dans un swing pro-Trump de +3%.

La lecture de la ligne "200" ml sur la gauche peut sembler raisonnable, mais serait une mesure erronée. . [+] Les erreurs systématiques comme celle-ci ne s'améliorent pas ou ne disparaissent pas avec plus de données. Crédit image : MJCdetroit sur Wikipédia en anglais sous c.c.a.-s.a.-3.0.

Rien de tout cela ne veut dire qu'il n'y a rien de mal avec les sondages qui ont été menés, ou avec l'idée de sondage en général. Si vous voulez savoir ce que pensent les gens, il est toujours vrai que le meilleur moyen de le savoir est de leur demander. Mais cela ne garantit pas que les réponses que vous obtenez ne sont pas biaisées ou erronées. C'est vrai même de sortie des urnes, ce qui ne reflète pas nécessairement la façon dont l'électorat a voté. C'est ainsi qu'une personne raisonnable comme Arthur Henning aurait pu écrire, en 1948,

Dewey et Warren ont remporté une victoire écrasante à l'élection présidentielle hier. Les premiers retours montraient que le ticket républicain menait assez régulièrement Truman et Barkley dans les États de l'ouest et du sud [. ] des retours complets révéleraient que Dewey a remporté la présidence à une écrasante majorité des voix électorales.

et nous avons tous appris comment cela s'est avéré.

Truman brandit un exemplaire du tristement célèbre Chicago Daily Tribune après les élections de 1948. Image. [+] crédit : utilisateur de flickr A Meyers 91 de l'original de Frank Cancellare, via https://www.flickr.com/photos/[email protected]/12894913705 sous cc-by-2.0.

Je n'irais pas aussi loin qu'Alex Berezow du Conseil américain de la science et de la santé, affirmant que les prévisions électorales et les chances de gagner sont complètement absurdes, bien qu'il fasse valoir quelques bons points. Mais je dirai qu'il est absurde de prétendre que ces erreurs systématiques ne sont pas réelles. En effet, cette élection a démontré, de manière assez catégorique, qu'aucun des modèles de sondage n'a suffisamment contrôlé pour eux. À moins que vous ne compreniez et ne quantifiiez vos erreurs systématiques - et vous ne pouvez pas le faire si vous ne comprenez pas en quoi vos sondages peuvent être biaisés - les prévisions électorales souffriront du problème GIGO : les ordures dedans, les ordures dehors.

Et malgré ce qu'indiquaient les sondages, Donald Trump a remporté l'élection de 2016 et sera la prochaine. [+] Président des États-Unis. Crédit image : Andrew Harrer/Bloomberg.

Il est probable que les succès de 2012 étaient un coup de chance, où soit les erreurs systématiques se sont annulées, soit les modèles de projection se sont avérés juste sur le nez. 2016 n'a pas du tout bougé de cette façon, ce qui indique qu'il reste encore beaucoup de chemin à parcourir avant de disposer d'un moyen fiable et robuste de prédire les résultats des élections sur la base des sondages. Cela représentera peut-être une opportunité d'apprentissage et une chance pour les sondages et comment ils sont interprétés améliorer. Mais si les analystes ne changent rien ou tirent les mauvaises leçons de leurs inexactitudes, il est peu probable que les projections atteignent à nouveau les succès de 2012.


Théories sur les raisons pour lesquelles les sondages ont sous-estimé le soutien à Trump

Un certain nombre de théories ont été avancées pour expliquer pourquoi de nombreux sondages ont été manqués en 2016. 1

BIAIS DE NON-RÉPONSE ET PONDÉRATION DÉFICIELLE

La plupart des sondages préélectoraux ont des taux de réponse à un chiffre ou comportent un échantillon opt-in pour lequel un taux de réponse ne peut pas être calculé ( Callegaro et DiSogra 2008 AAPOR 2016). Bien que le lien entre les faibles taux de réponse et le biais ne soit pas particulièrement fort (par exemple, Merkle et Edelman 2002 Groves et Peytcheva 2008 Pew Research Center 2012, 2017a), des taux aussi faibles comportent un risque accru de biais (par exemple, Burden 2000). Il convient de noter en particulier, les adultes avec une force partisane plus faible (par exemple, Keeter et al. 2006), des niveaux d'éducation inférieurs ( Battaglia, Frankel et Link 2008 Chang et Krosnick 2009 Link et al. 2008 Pew Research Center 2012, 2017a) et anti- les opinions du gouvernement ( US Census Bureau 2015) sont moins susceptibles de participer aux enquêtes. Compte tenu des thèmes anti-élites de la campagne Trump, les électeurs de Trump ont peut-être été moins susceptibles que les autres électeurs d'accepter les demandes de sondage. Si la réponse au sondage était corrélée au vote présidentiel et qu'un facteur n'était pas pris en compte dans la pondération, alors un protocole de pondération déficient pourrait être une explication des erreurs de sondage.

DÉCISION TARDIVE

L'idée que les sondages préélectoraux organisés plus près du jour du scrutin ont tendance à être plus prédictifs du résultat des élections que des sondages tout aussi rigoureux menés plus loin est bien documentée depuis un certain temps (par exemple, Crespi 1988 Traugott 2001 Erikson et Wlezien 2012). L'effet des changements tardifs dans les décisions des électeurs peut être particulièrement important lors d'élections avec des événements majeurs liés à la campagne très proches du jour du scrutin ( AAPOR 2009). Trump et Clinton avaient tous deux des notes de favorabilité historiquement faibles ( Collins 2016 Yourish 2016). Mécontents de leurs options, certains électeurs ont peut-être attendu la dernière semaine environ avant de se prononcer. De plus, les décideurs tardifs, étant moins ancrés politiquement, ont tendance à être plus influencés par les événements de campagne que les électeurs décidant plus tôt ( Fournier et al. 2004).

MODÈLES D'ÉLECTEURS PROBABLES MAL SPÉCIFIÉS

Construire un modèle précis d'électeur probable est un défi de taille, même pour les sondeurs les plus aguerris ( Erikson, Panagopoulos et Wlezien 2004). Lorsque les schémas de participation divergent des élections récentes, les données historiques peuvent être inutiles, voire trompeuses. Le taux de participation des électeurs en 2016 différait de celui de 2012 d'une manière qui a favorisé Trump et désavantagé Clinton. À l'échelle nationale, la participation parmi les Afro-Américains, le groupe le plus favorable à Clinton, a chuté de sept points de pourcentage, tandis que la participation parmi les Hispaniques et les Blancs non hispaniques a peu changé, selon le supplément de vote et d'inscription de la Current Population Survey (CPS) (fichier 2017). En outre, l'analyse de Fraga et ses collègues (2017) indique que la baisse de la participation afro-américaine a été la plus marquée dans des États tels que le Wisconsin et le Michigan, qui ont déterminé le résultat des élections. Si les sondeurs avaient conçu leurs modèles d'électeurs probables en partant de l'hypothèse que les schémas de participation de 2016 seraient similaires à ceux de 2012, cela aurait pu conduire à une sous-estimation du soutien aux républicains, y compris Trump. Une telle erreur de spécification du modèle aurait pu être exacerbée par les biais du sondage national de sortie de 2012 (une source populaire de données sur la participation) surestimant la participation des jeunes et des électeurs non blancs ( McDonald 2007 Cohn 2016).

LES TOUT TIMIDE HYPOTHÈSE (ERREUR DE DÉCLARATION)

La controverse entourant la candidature de Trump a soulevé la possibilité que certains électeurs de Trump n'aient peut-être pas été disposés à divulguer leur soutien à lui dans les sondages. Si une part importante des électeurs de Trump était réticente à divulguer son soutien à lui, cela pourrait expliquer la sous-estimation systématique du soutien à Trump dans les sondages (par exemple, Enns, Lagodny et Schuldt 2017). Les inquiétudes concernant la possibilité de fausses déclarations systématiques d'intentions de vote pour ou contre un candidat controversé remontent à des décennies. Les études examinant cette question ont eu tendance à se concentrer sur des élections dans lesquelles soit la race des candidats ( Citrin, Green et Sears 1990 Finkel, Guterbock et Borg 1991 Traugott et Price 1992 Hopkins 2009) soit le sexe ( Hopkins 2009 Stout et Kline 2011) était un potentiel facteur d'erreur d'interrogation. Lors de l'élection présidentielle de 2016, la race et le sexe étaient très importants. Clinton a été la première femme candidate à la présidence d'un grand parti, et bien que les deux candidats soient blancs, le bilan de Trump sur les questions raciales (par exemple, la discrimination en matière de logement, le Central Park Five, l'accouchement) et le soutien ouvert des suprémacistes blancs ont placé la race au premier plan de la campagne. Cependant, une étude récente suggère que le risque pour les sondages des personnes interrogées qui déclarent intentionnellement mal leur choix de vote a considérablement diminué ou a complètement disparu (Hopkins 2009).


Note favorable d'Hillary Clinton au nouveau plus bas

WASHINGTON, D.C. -- L'image d'Hillary Clinton a décliné depuis juin et est maintenant la pire que Gallup ait mesurée pour elle à ce jour. Sa note favorable a chuté de cinq points de pourcentage depuis juin pour atteindre un nouveau plus bas de 36%, tandis que sa note défavorable a atteint un nouveau sommet de 61%.

La faible note favorable de Clinton était de 38 % fin août/début septembre 2016 pendant la campagne présidentielle. Elle a également enregistré une note favorable de 38% (avec une note défavorable de 40%) en avril 1992, alors qu'elle était beaucoup moins connue.

Les résultats actuels sont basés sur un sondage Gallup du 4 au 11 décembre. La note favorable de Clinton a considérablement varié au cours des 25 années où Gallup a mesuré les opinions à son sujet. Son record personnel était une note favorable de 67% prise dans un sondage de décembre 1998, juste après que la Chambre des représentants ait voté pour destituer son mari, alors président Bill Clinton. Elle a également eu des notes favorables au milieu des années 60 pendant son mandat de secrétaire d'État entre 2009 et 2013.

À des moments où elle a assumé un rôle plus ouvertement politique – lors des tentatives de réforme des soins de santé en 1994, pendant ses années en tant que sénatrice américaine et pendant ses campagnes présidentielles de 2007-2008 et 2015-2016, ses notes ont souffert. Ses notes favorables étaient proches de 50 % lorsqu'elle a annoncé sa deuxième candidature à la présidence au printemps 2015, mais a chuté à l'été 2015 au milieu de la controverse sur son utilisation d'un serveur de messagerie privé alors qu'elle était secrétaire d'État. Tout au long de 2016, ses notes favorables étaient généralement d'environ 40%, parmi les pires jamais mesurées pour les candidats à la présidentielle, mais plus positives que les notes de Donald Trump.

Depuis sa défaite contre Trump, les notes favorables de Clinton ne se sont pas améliorées, contrairement à ce qui s'est passé pour d'autres candidats à la présidentielle récemment perdus. En fait, son image s'est détériorée ces derniers mois alors que les dirigeants démocrates, les observateurs politiques et Clinton elle-même ont tenté d'expliquer comment elle a perdu une élection qu'elle était censée gagner. Pendant ce temps, la controverse continue de tourbillonner autour de Clinton étant donné les questions persistantes sur l'équité du processus de nomination démocrate de 2016 et ses relations avec la Russie alors qu'elle était secrétaire d'État. Il y a également eu une nouvelle discussion sur le traitement par Bill et Hillary Clinton des accusations de harcèlement sexuel portées contre Bill Clinton à la lumière des préoccupations croissantes du public concernant le comportement au travail.

Les démocrates et l'image d'Hillary Clinton stable au cours des six derniers mois

Au cours des six derniers mois, l'image d'Hillary Clinton s'est dégradée chez les républicains et les indépendants, mais pas chez les démocrates.

juin 2017 Décembre 2017 Changer
% % PCT points.
Adultes nationaux 41 36 -5
Démocrates 79 78 -1
Indépendants 33 27 -6
Républicains 11 5 -6
Gallup

Dans une perspective à plus long terme, la faveur d'Hillary Clinton parmi les démocrates ne s'est pas maintenue au niveau observé lors des élections de 2016. Elle a obtenu 87 % de notes favorables parmi les démocrates au début (d'après un sondage de mai 2015) et à la fin (d'après un sondage de novembre 2016) de sa campagne présidentielle de 2016.

La campagne et ses conséquences ont eu le plus grand impact sur les opinions indépendantes de Clinton. Elle a commencé avec une note favorable de 51 % parmi ce groupe, qui est tombée à 33 % en novembre 2016 et se situe maintenant à 27 %.

L'image de Bill Clinton la pire depuis 2001

L'image de Bill Clinton s'est également dégradée au cours de l'année écoulée, avec une note favorable actuelle de 45 % en baisse de cinq points depuis que Gallup a mesuré pour la dernière fois l'opinion des Américains à son égard en novembre 2016. Compte tenu de sa note défavorable de 52 %, davantage d'adultes américains ont désormais une négative qu'une opinion positive de l'ancien président.

Sa note actuelle est la plus basse depuis mars 2001, lorsqu'elle a atteint 39% après sa sortie difficile de la Maison Blanche qui comprenait une série de pardons controversés ainsi que les cadeaux des Clinton, mais revenant plus tard, destinés à la Maison Blanche. A cette époque, 59% des Américains avaient une opinion défavorable de Bill Clinton, son plus haut dans la tendance Gallup's. Il a eu des notes favorables inférieures à 39%, mais celles-ci ont été mesurées au début de sa campagne présidentielle de 1992, lorsqu'une proportion substantielle d'Américains ne connaissaient pas suffisamment Clinton pour donner une opinion sur lui.

L'image de Bill Clinton s'est rétablie dans les années qui ont suivi son départ de la Maison Blanche, comme c'est le cas pour la plupart des ex-présidents. En août 2012, 69 % des Américains avaient une opinion favorable de lui, le plus élevé que Gallup ait mesuré pour lui. Ses notes ont commencé à chuter après cela, en particulier après avoir commencé à faire activement campagne pour soutenir la campagne présidentielle de sa femme.

Contrairement à ce qui s'est passé pour Hillary Clinton, la note favorable de Bill Clinton est plus basse parmi ses collègues démocrates qu'elle ne l'était dans la mesure précédente de Gallup. Actuellement, 76% des démocrates ont une opinion positive de lui, contre 81% en 2016. La positivité des indépendants a encore diminué - sept points - tandis que les opinions des républicains sont stables.

novembre 2016 Décembre 2017 Changer
% % PCT points.
Adultes nationaux 50 45 -5
Démocrates 81 76 -5
Indépendants 48 41 -7
Républicains 17 16 -1
Gallup

Implications

De nombreux experts politiques, et probablement les Clinton eux-mêmes, pensaient que Bill et Hillary Clinton résideraient à la Maison Blanche en 2017. Mais la défaite surprise d'Hillary Clinton aux élections de 2016 a mis fin à leur carrière d'élu. L'année loin de la politique n'a pas amené les Américains à voir l'un ou l'autre sous un jour plus positif, en fait, le contraire s'est produit avec les notes de Bill Clinton les pires en 16 ans et celles d'Hillary Clinton les pires que Gallup ait mesurées à ce jour.

Plutôt que de considérer favorablement leurs plus de 25 ans de service public, l'année écoulée a été remplie de doutes sur la stratégie de campagne de Clinton en 2016 et d'allégations continues de comportement contraire à l'éthique ou illégal de la part d'Hillary Clinton pendant son mandat dans la fonction publique. en tant que candidat à la présidentielle. En outre, l'accent mis sur le harcèlement sexuel cette année a amené certains, y compris les démocrates, à remettre en question la façon dont les partisans de Bill Clinton ont répondu aux allégations passées selon lesquelles il aurait maltraité les femmes.

Dans le passé, les notes de Bill et d'Hillary Clinton se sont améliorées lorsqu'ils occupaient des rôles moins ouvertement politiques - elle en tant que première dame et secrétaire d'État, et lui en tant qu'ancien président et leader philanthropique. Pour Bill Clinton, cependant, il a fallu plus de deux ans pour que son image se rétablisse après sa sortie controversée de la Maison Blanche en 2001. Ainsi, si leurs cotes doivent s'améliorer, il faudra peut-être plus de temps pour les blessures politiques de la campagne de 2016. guérir.

Méthodes d'enquête

Les résultats de ce sondage Gallup sont basés sur des entretiens téléphoniques menés du 4 au 11 décembre 2017, avec un échantillon aléatoire de 1 049 adultes, âgés de 18 ans et plus, vivant dans les 50 États américains et dans le district de Columbia. Pour les résultats basés sur l'échantillon total d'adultes nationaux, la marge d'erreur d'échantillonnage est de ±4 points de pourcentage au niveau de confiance de 95 %. Toutes les marges d'erreur d'échantillonnage déclarées incluent les effets de plan calculés pour la pondération.

Chaque échantillon d'adultes nationaux comprend un quota minimum de 70 % de répondants au téléphone portable et de 30 % de répondants au téléphone fixe, avec des quotas minimums supplémentaires par fuseau horaire dans la région. Les numéros de téléphone fixe et cellulaire sont sélectionnés à l'aide de méthodes de numérotation aléatoire.

En savoir plus sur le fonctionnement de la série Gallup Poll Social Series.

Alertes Gallup
Recevez les dernières nouvelles basées sur les données directement dans votre boîte de réception.


Voir la vidéo: journée mondiale du livre 2016 - sondage