« Une conversation avec un LLM a un effet assez significatif sur les choix électoraux importants », explique Gordon Pennycook, psychologue à l’Université Cornell qui a travaillé sur l’étude. Nature étude. Les LLM peuvent convaincre les gens plus efficacement que les publicités politiques, car ils génèrent beaucoup plus d’informations en temps réel et les déploient stratégiquement dans les conversations, explique-t-il.
Pour le Nature papierles chercheurs ont recruté plus de 2 300 participants pour engager une conversation avec un chatbot deux mois avant l’élection présidentielle américaine de 2024. Le chatbot, formé pour défendre l’un ou l’autre des deux meilleurs candidats, s’est montré étonnamment convaincant, en particulier lors des discussions sur les programmes politiques des candidats sur des questions telles que l’économie et les soins de santé. Les partisans de Donald Trump qui ont discuté avec un modèle d’IA en faveur de Kamala Harris sont devenus légèrement plus enclins à soutenir Harris, progressant de 3,9 points vers elle sur une échelle de 100 points. Cela représente environ quatre fois l’effet mesuré des publicités politiques lors des élections de 2016 et 2020. Le modèle d’IA favorisant Trump a fait gagner 2,3 points aux partisans de Harris par rapport à Trump.
Dans des expériences similaires menées pendant la période précédant les élections fédérales canadiennes de 2025 et l’élection présidentielle polonaise de 2025, l’équipe a découvert un effet encore plus important. Les chatbots ont modifié l’attitude des électeurs de l’opposition d’environ 10 points.
Des théories de longue date sur le raisonnement politique soutiennent que les électeurs partisans sont insensibles aux faits et aux preuves qui contredisent leurs convictions. Mais les chercheurs ont découvert que les chatbots, qui utilisaient une gamme de modèles, notamment des variantes de GPT et DeepSeek, étaient plus convaincants lorsqu’on leur demandait d’utiliser des faits et des preuves que lorsqu’on leur disait de ne pas le faire. « Les gens effectuent des mises à jour sur la base des faits et des informations que le modèle leur fournit », explique Thomas Costello, psychologue à l’American University, qui a travaillé sur le projet.
Le problème, c’est que certaines des « preuves » et des « faits » présentés par les chatbots étaient faux. Dans les trois pays, les chatbots défendant les candidats de droite ont fait un plus grand nombre d’affirmations inexactes que ceux défendant les candidats de gauche. Les modèles sous-jacents sont formés sur de grandes quantités de textes écrits par des humains, ce qui signifie qu’ils reproduisent des phénomènes du monde réel, y compris « la communication politique qui vient de la droite, qui a tendance à être moins précise », selon des études sur les publications partisanes sur les réseaux sociaux, explique Costello.
Dans l’autre étude publiée cette semaine, dans Scienceune équipe de chercheurs qui se chevauchent ont étudié ce qui rend ces chatbots si convaincants. Ils ont déployé 19 LLM pour interagir avec près de 77 000 participants du Royaume-Uni sur plus de 700 questions politiques tout en faisant varier des facteurs tels que la puissance de calcul, les techniques de formation et les stratégies rhétoriques.
Le moyen le plus efficace de rendre les modèles convaincants était de leur demander de compléter leurs arguments avec des faits et des preuves, puis de leur donner une formation supplémentaire en leur donnant des exemples de conversations persuasives. En fait, le modèle le plus convaincant a fait passer les participants initialement en désaccord avec une déclaration politique de 26,1 points vers ceux d’accord. « Il s’agit d’effets thérapeutiques très importants », explique Kobi Hackenburg, chercheur au UK AI Security Institute, qui a travaillé sur le projet.
