Les chatbots d’IA peuvent influencer le vote, alertent deux études
Posté : 05 décembre 2025 08:23
"IA : Des agents conversationnels sont capables de faire changer d’avis des électeurs, selon deux études
flippant•Selon deux recherches publiées dans Science et Nature, des assistants conversationnels comme GPT-4o ou DeepSeek sont capables de modifier les préférences politiques d’électeurs après une simple conversation, parfois en s’appuyant sur des arguments inexacts
20 Minutes avec AFP
20 Minutes avec AFP
Publié le 04/12/2025 à 23h45 • Mis à jour le 04/12/2025 à 23h45
Les assistants conversationnels d’intelligence artificielle (IA) peuvent être étonnamment efficaces pour faire évoluer l’opinion politique d’un électeur parfois de plusieurs points, et ce, même lorsqu’ils citent des éléments inexacts. C’est la conclusion de deux études majeures publiées ce jeudi 4 décembre dans les revues Science et Nature, qui alertent sur la puissance persuasive de ces modèles d’IA générative.
Les chercheurs ont mené des expérimentations aux États-Unis, au Royaume-Uni, au Canada et en Pologne. Les participants devaient d’abord noter leur préférence entre deux candidats sur une échelle de 0 à 100. Puis, au terme d’une discussion avec un chatbot programmé pour les convaincre, on leur demandait de réévaluer leur préférence initiale. Les résultats montrent que les avis évoluent de manière significative. La capacité de l’IA à modifier une opinion politique pourrait devenir un enjeu central pour les démocraties, surtout en période électorale. Les auteurs des études appellent à développer des garde-fous pour éviter toute manipulation.
1 personne sur 10 change d’avis
Aux États-Unis, des électeurs favorables à Donald Trump ont vu leur appréciation de sa rivale démocrate Kamala Harris progresser de quatre points. Au Canada et en Pologne, les variations ont atteint jusqu’à dix points chez certains sondés, notamment parmi les électeurs d’opposition interrogés avant les scrutins de 2025.
Pour David Rand, professeur à l’université Cornell et coauteur des études, ces effets peuvent peser sur le résultat d’une élection. « Environ un répondant sur dix au Canada et en Pologne a changé d’avis lorsqu’on leur demandait pour qui ils voteraient si l’élection avait lieu ce jour-là », explique-t-il, tout en pointant que « les intentions de vote ne sont pas toujours les mêmes que les votes réels » dans l’urne. Aux États-Unis, ce ratio reste notable, avec environ un sur vingt-cinq.
Persuasif et argumenté
Les chatbots les plus convaincants adoptent un ton très poli et fournissent des « preuves », même lorsque celles-ci sont parfois erronées. À l’inverse, lorsqu’ils étaient programmés pour ne pas citer de faits, leur pouvoir d’influence chutait drastiquement.
Un suivi effectué un mois plus tard montre que l’effet persuasif s’atténue, mais ne disparaît pas : il est divisé par deux au Royaume-Uni et par trois aux États-Unis. « Toute preuve d’un effet persistant un mois plus tard est relativement rare en sciences sociales », souligne David Rand".
https://www.20minutes.fr/high-tech/4189 ... eux-etudes
flippant•Selon deux recherches publiées dans Science et Nature, des assistants conversationnels comme GPT-4o ou DeepSeek sont capables de modifier les préférences politiques d’électeurs après une simple conversation, parfois en s’appuyant sur des arguments inexacts
20 Minutes avec AFP
20 Minutes avec AFP
Publié le 04/12/2025 à 23h45 • Mis à jour le 04/12/2025 à 23h45
Les assistants conversationnels d’intelligence artificielle (IA) peuvent être étonnamment efficaces pour faire évoluer l’opinion politique d’un électeur parfois de plusieurs points, et ce, même lorsqu’ils citent des éléments inexacts. C’est la conclusion de deux études majeures publiées ce jeudi 4 décembre dans les revues Science et Nature, qui alertent sur la puissance persuasive de ces modèles d’IA générative.
Les chercheurs ont mené des expérimentations aux États-Unis, au Royaume-Uni, au Canada et en Pologne. Les participants devaient d’abord noter leur préférence entre deux candidats sur une échelle de 0 à 100. Puis, au terme d’une discussion avec un chatbot programmé pour les convaincre, on leur demandait de réévaluer leur préférence initiale. Les résultats montrent que les avis évoluent de manière significative. La capacité de l’IA à modifier une opinion politique pourrait devenir un enjeu central pour les démocraties, surtout en période électorale. Les auteurs des études appellent à développer des garde-fous pour éviter toute manipulation.
1 personne sur 10 change d’avis
Aux États-Unis, des électeurs favorables à Donald Trump ont vu leur appréciation de sa rivale démocrate Kamala Harris progresser de quatre points. Au Canada et en Pologne, les variations ont atteint jusqu’à dix points chez certains sondés, notamment parmi les électeurs d’opposition interrogés avant les scrutins de 2025.
Pour David Rand, professeur à l’université Cornell et coauteur des études, ces effets peuvent peser sur le résultat d’une élection. « Environ un répondant sur dix au Canada et en Pologne a changé d’avis lorsqu’on leur demandait pour qui ils voteraient si l’élection avait lieu ce jour-là », explique-t-il, tout en pointant que « les intentions de vote ne sont pas toujours les mêmes que les votes réels » dans l’urne. Aux États-Unis, ce ratio reste notable, avec environ un sur vingt-cinq.
Persuasif et argumenté
Les chatbots les plus convaincants adoptent un ton très poli et fournissent des « preuves », même lorsque celles-ci sont parfois erronées. À l’inverse, lorsqu’ils étaient programmés pour ne pas citer de faits, leur pouvoir d’influence chutait drastiquement.
Un suivi effectué un mois plus tard montre que l’effet persuasif s’atténue, mais ne disparaît pas : il est divisé par deux au Royaume-Uni et par trois aux États-Unis. « Toute preuve d’un effet persistant un mois plus tard est relativement rare en sciences sociales », souligne David Rand".
https://www.20minutes.fr/high-tech/4189 ... eux-etudes