Comment les chatbots politiques apprennent à influencer le vote

Dernière mise à jour: 09/12/2025

  • Deux études majeures publiées dans Nature et Science prouvent que les chatbots politiques peuvent modifier les attitudes et les intentions de vote dans plusieurs pays.
  • La persuasion repose principalement sur la présentation de nombreux arguments et données, même si cela augmente le risque de diffusion d'informations inexactes.
  • L'optimisation visant à influencer renforce l'effet persuasif jusqu'à 25 points, mais réduit la véracité des réponses.
  • Ces conclusions ouvrent un débat urgent en Europe et dans le reste des démocraties sur la réglementation, la transparence et la culture numérique.
Influence politique des chatbots

L’émergence de la chatbots politiques Ce n'est plus une anecdote technologique. de devenir un élément qui commence à compter dans les véritables campagnes électorales. Des conversations de quelques minutes seulement avec des modèles d'IA suffisent à faire évoluer la sympathie envers un candidat de plusieurs points ou une proposition concrète, chose qui, jusqu'à récemment, n'était associée qu'à de grandes campagnes médiatiques ou à des rassemblements très coordonnés.

Deux enquêtes de grande envergure, publiées simultanément dans Nature y Science, Ils ont chiffré quelque chose que l'on soupçonnait déjà.: L' Les chatbots conversationnels sont capables de modifier les attitudes politiques des citoyens. avec une facilité remarquable, même lorsqu'ils savent qu'ils interagissent avec une machine. Et ils le font, avant tout, grâce à arguments chargés d'informationspas tellement par le biais de tactiques psychologiques sophistiquées.

Les chatbots dans les campagnes : expériences aux États-Unis, au Canada, en Pologne et au Royaume-Uni

Les chatbots dans les campagnes politiques

Ces nouvelles preuves proviennent d'une série d'expériences coordonnées par des équipes de la Université Cornell et Université d'Oxford, réalisées lors de processus électoraux réels dans États-Unis, Canada, Pologne et Royaume-UniDans tous les cas, les participants savaient qu'ils allaient dialoguer avec une IA, mais ils ignoraient l'orientation politique du chatbot qui leur était attribué.

Dans le cadre des travaux menés par David Rand et publié dans Nature, des milliers d'électeurs ont participé à de brefs dialogues avec des modèles de langage configurés pour défendre un candidat spécifiqueLors de l'élection présidentielle américaine de 2024, par exemple, 2.306 citoyens Ils ont d'abord indiqué leur préférence entre Donald Trump y Kamala HarrisIls ont ensuite été affectés aléatoirement à un chatbot qui défendait l'un des deux.

Après la conversation, les changements d'attitude et d'intention de vote ont été mesurés. Des bots favorables à Harris ont été obtenus. décalage de 3,9 points sur une échelle de 0 à 100 parmi les électeurs initialement alignés sur Trump, un impact que les auteurs calculent comme quatre fois plus élevée que celle de la publicité électorale traditionnelle testé lors des campagnes de 2016 et 2020. Le modèle pro-Trump a également évolué, quoique plus modérément, avec un changement de… Points de 1,51 parmi les partisans de Harris.

Les résultats en Canada (Avec Les participants 1.530 et les chatbots défendent Mark Carney o Pierre Polyièvre) et en Pologne (2 118 personnes, avec des modèles qui ont fait la promotion Rafa Trzaskowski o Karol Nawrocki) étaient encore plus frappants : dans ces contextes, les chatbots ont réussi des changements dans l'intention de vote pouvant atteindre 10 points de pourcentage parmi les électeurs de l'opposition.

Un aspect essentiel de ces procès est que, même si la plupart des conversations n'ont duré que quelques minutes, Une partie de cet effet a persisté dans le temps.Aux États-Unis, un peu plus d'un mois après l'expérience, une part importante de l'impact initial était encore observée, malgré l'avalanche de messages de campagne reçus par les participants pendant cette période.

Qu’est-ce qui rend un chatbot politique convaincant (et pourquoi cela génère plus d’erreurs) ?

chatbots politiques

Les chercheurs souhaitaient comprendre non seulement si les chatbots pouvaient persuader, mais aussi Comment y parvenaient-ils ?Le schéma qui se répète dans les études est clair : l’IA a la plus grande influence lorsque Il utilise de nombreux arguments fondés sur des faitsmême si une grande partie de ces informations n'est pas particulièrement sophistiquée.

Contenu exclusif - Cliquez ici  Différence entre antifédéraliste et fédéraliste

Dans les expériences coordonnées par Rand, la consigne la plus efficace pour les modèles consistait à leur demander d'être poli, respectueux et capable de fournir des preuves de ses déclarations. La courtoisie et un ton conversationnel ont été utiles, mais le principal levier de changement résidait dans la fourniture de données, d'exemples, de chiffres et de références constantes aux politiques publiques, à l'économie ou aux soins de santé.

Lorsque les modèles étaient limités dans leur accès aux faits vérifiables et qu'on leur demandait de persuader sans recourir à des données concrètesLeur pouvoir d'influence a chuté de façon drastique. Ce résultat a conduit les auteurs à conclure que l'avantage des chatbots par rapport aux autres formes de propagande politique réside moins dans la manipulation émotionnelle que dans… densité d'information qu'ils peuvent déployer en quelques échanges de conversation seulement.

Mais cette même stratégie présente un inconvénient : la pression croissante sur les modèles pour générer des affirmations de plus en plus prétendument factuellesLe risque augmente que le système vienne à manquer de matériaux fiables et commence à « inventer » des faitsEn clair, le chatbot comble les lacunes avec des données qui semblent plausibles mais qui ne sont pas forcément correctes.

L'étude publiée dans Science, avec 76 977 adultes du Royaume-Uni y 19 modèles différents (des petits systèmes open source aux modèles commerciaux de pointe), il le confirme systématiquement : La formation post-entraînement était axée sur la persuasion a accru la capacité d'influencer jusqu'à un 51%, tandis que de simples modifications des instructions (les soi-disant incitationIls en ont ajouté un autre 27% d'efficacité. Parallèlement, ces améliorations se sont accompagnées d'une réduction notable de exactitude des faits.

Asymétries idéologiques et risque de désinformation

L’une des conclusions les plus troublantes des études de Cornell et d’Oxford est que le déséquilibre entre persuasion et véracité n’est pas réparti uniformément entre tous les candidats et tous les postes. Lorsque des vérificateurs de faits indépendants ont analysé les messages générés par les chatbots, ils ont constaté que Les mannequins qui soutenaient les candidats de droite ont commis davantage d'erreurs. que ceux qui soutenaient les candidats progressistes.

Selon les auteurs, ceci asymétrie Cela concorde avec des études antérieures qui Ces études montrent que les utilisateurs conservateurs ont tendance à partager davantage de contenus inexacts sur les réseaux sociaux que les utilisateurs de gauche.Étant donné que les modèles de langage apprennent à partir d'immenses quantités d'informations extraites d'Internet, il est probable qu'ils reflètent certains de ces biais plutôt que de les créer de toutes pièces.

Dans tous les cas, la conséquence est la même : lorsqu’un chatbot est programmé pour maximiser son pouvoir de persuasion en faveur d’un bloc idéologique particulier, le modèle tend à augmenter la proportion de déclarations trompeuses, même si je continue à les mélanger avec beaucoup de données correctes. Le problème ne se limite pas à la possibilité que de fausses informations se soient infiltrées.Mais Elle le fait enveloppée dans un récit apparemment raisonnable et bien documenté.

Les chercheurs soulignent également un point délicat : Ils n'ont pas démontré que les affirmations inexactes sont intrinsèquement plus persuasives.Cependant, à mesure que l'IA est poussée à devenir toujours plus performante, le nombre d'erreurs augmente en parallèle. Autrement dit, améliorer la capacité de persuasion sans compromettre la précision se révèle être un défi technique et éthique qui demeure irrésolu.

Contenu exclusif - Cliquez ici  La Chine oppose son veto à l'achat par Nvidia de puces d'IA auprès de ses entreprises technologiques

Ce schéma est particulièrement préoccupant dans les contextes de forte polarisation politique, comme celles que l'on observe dans certaines régions d'Europe et d'Amérique du Nord, où les marges de victoire sont étroites et où quelques points de pourcentage peuvent décider de l'issue d'une élection générale ou présidentielle.

Les limites des études et les doutes quant à leur impact réel dans les urnes

Impact de l'intelligence artificielle sur le vote

Bien que les résultats publiés dans Nature et Science soient solides et concordent sur leurs principales conclusions, les deux équipes insistent sur le fait que Il s'agit d'expériences contrôlées, et non de véritables campagnes.Plusieurs éléments invitent à prudence lors de l'extrapolation des données comme une élection dans la rue.

D’une part, les participants se sont inscrits volontairement ou ont été recrutés par l’intermédiaire de plateformes offrant une compensation financière, ce qui introduit les biais d'auto-sélection et l'éloignement de la diversité de l'électorat réelDe plus, ils savaient à tout moment que Ils discutaient avec une IA. et cela faisait partie d'une étude, des conditions qui seraient difficilement reproductibles dans une campagne ordinaire.

Une autre nuance importante est que les études ont principalement mesuré changements d'attitudes et d'intentions déclaréesIl ne s'agit pas du vote effectivement exprimé. Ces indicateurs sont utiles, mais ne sauraient se substituer à l'observation du comportement final le jour du scrutin. De fait, dans les expériences menées aux États-Unis, l'effet était légèrement inférieur à celui observé au Canada et en Pologne, ce qui laisse penser que le contexte politique et le degré d'indécision préalable ont une influence significative.

Dans le cas de l'étude britannique coordonnée par Kobi Hackenburg L'Institut britannique de sécurité de l'IA impose également des restrictions claires : les données proviennent uniquement de les électeurs du Royaume-Uni, tous conscients de participer à une recherche universitaire et avec compensationCela limite sa généralisation à d'autres pays de l'UE ou à des contextes moins contrôlés.

Néanmoins, l'ampleur de ces travaux — des dizaines de milliers de participants et plus de 700 sujets politiques différents— et la transparence méthodologique ont conduit une grande partie de la communauté universitaire à considérer que Ils dressent un scénario plausibleL'utilisation de chatbots politiques capables de modifier les opinions relativement rapidement n'est plus une hypothèse futuriste, mais un scénario techniquement réalisable pour les campagnes à venir.

Un nouvel acteur électoral pour l'Europe et les autres démocraties

Au-delà des cas spécifiques des États-Unis, du Canada, de la Pologne et du Royaume-Uni, les conclusions ont des implications directes pour Europe et Espagnelà où la réglementation de la communication politique sur les réseaux sociaux et l'utilisation des données personnelles dans les campagnes font déjà l'objet d'intenses débats. La possibilité d'intégrer des chatbots qui maintiennent dialogues personnalisés avec les électeurs Cela ajoute une couche de complexité supplémentaire.

Jusqu'à présent, la persuasion politique s'exprimait principalement par le biais de publicités statiques, rassemblements, débats télévisés et médias sociauxL'arrivée des assistants conversationnels introduit un nouvel élément : la capacité de maintenir interactions individuelles, adaptées instantanément à ce que dit le citoyen en temps réel, et tout cela à un coût pratiquement marginal pour les organisateurs de la campagne.

Les chercheurs soulignent que l'enjeu principal n'est plus seulement de savoir qui contrôle la base de données électorale, mais qui peut développer des modèles capables de répondre aux arguments, de les affiner et de les reproduire en continu, avec un volume d'informations qui dépasse largement ce qu'un bénévole humain pourrait traiter à un standard téléphonique ou dans un poste de police.

Contenu exclusif - Cliquez ici  Magic Cue : qu'est-ce que c'est, à quoi ça sert et comment l'activer étape par étape

Dans ce contexte, des voix comme celle de l'expert italien Walter Quattrociocchi Ils insistent sur le fait que l'attention réglementaire devrait se déplacer d'une personnalisation agressive ou d'une segmentation idéologique vers densité d'information que les modèles peuvent fournir. Des études montrent que la persuasion se développe principalement lorsque les données sont multipliées, et non lorsque des stratégies émotionnelles sont utilisées.

La La concordance des résultats entre Nature et Science a suscité l'inquiétude au sein des organisations européennes. préoccupé par le intégrité des processus démocratiquesBien que l'Union européenne progresse avec des cadres tels que le règlement sur les services numériques ou la future réglementation spécifique de l'IA, la vitesse à laquelle ces modèles évoluent reste un défi. Cela nécessite un examen constant des mécanismes de supervision, d'audit et de transparence..

Culture numérique et défense contre la persuasion automatisée

Les chatbots influencent la politique

L'un des messages récurrents dans les commentaires universitaires accompagnant ces ouvrages est que la réponse ne peut se fonder uniquement sur des interdictions ou des contrôles techniques. Les auteurs s'accordent à dire qu'il sera essentiel de renforcer le littératie numérique de la population afin que les citoyens apprennent à reconnaître et résister à la persuasion généré par des systèmes automatiques.

Des expériences complémentaires, telles que celles publiées dans Nexus PNASIls suggèrent que les utilisateurs qui comprennent le mieux le fonctionnement des grands modèles de langage sont moins vulnérable face à ses tentatives d'influence, le fait de savoir qu'un chatbot peut se tromper, exagérer ou combler les lacunes par des suppositions réduit la tendance à accepter ses messages comme s'ils provenaient d'une autorité infaillible.

Parallèlement, on a observé que l'efficacité persuasive de l'IA dépend moins de la conviction de l'interlocuteur qu'il parle à un expert humain que de la la qualité et la cohérence des arguments qu'il reçoit. Dans certains tests, les messages du chatbot ont même réussi à réduire la croyance aux théories du complot, que les participants pensent discuter avec une personne ou une machine.

Cela suggère que la technologie elle-même n'est pas intrinsèquement nuisible : elle peut être utilisée à la fois pour et contre. combattre la désinformation pour le propagerLa limite est fixée par les instructions données au modèle, les données avec lesquelles il est entraîné et, surtout, les objectifs politiques ou commerciaux de ceux qui le mettent en œuvre.

Tandis que les gouvernements et les organismes de réglementation débattent des limites et des exigences en matière de transparence, les auteurs de ces ouvrages insistent sur une idée : chatbots politiques Ils ne pourront exercer une influence massive que si le public accepte d'interagir avec eux.Par conséquent, le débat public sur son utilisation, son étiquetage clair et le droit de ne pas être soumis à une persuasion automatisée deviendront des questions centrales dans le débat démocratique des prochaines années.

L'étude publiée dans Nature and Science révèle à la fois des opportunités et des risques : les chatbots d'IA peuvent contribuer à mieux expliquer les politiques publiques et à résoudre des problèmes complexes, mais ils peuvent aussi avoir la capacité de faire pencher la balance électoralenotamment parmi les électeurs indécis, et ils le font avec un un coût évident en termes d'exactitude de l'information lorsqu'ils sont formés pour maximiser leur pouvoir de persuasion, un équilibre délicat que les démocraties devront aborder de toute urgence et sans naïveté.

Lois de l'IA de Californie
Article connexe:
La Californie adopte la loi SB 243 pour réglementer les chatbots IA et protéger les mineurs