Un internaute noir critiquant le mouvement Black Lives Matter (« les vies noires comptent »), un patient dénonçant les soins reçus dans un hôpital, un homme racontant avoir été violé par une femme… Parmi les 3,8 millions de membres de la communauté r/changemyview (« fais-moi changer d’avis ») de la plateforme Reddit, ces utilisateurs n’ont pas particulièrement éveillé l’attention des modérateurs. Ces derniers ont appris avec stupéfaction qu’il s’agissait en fait de « bots », des comptes automatisés, postant des messages générés par intelligence artificielle (IA), dans le cadre d’une expérience menée par des chercheurs de l’université de Zurich.
L’objectif de ces scientifiques : évaluer le pouvoir de persuasion de l’IA. La communauté r/changemyview (« subreddit », en anglais) n’a pas été choisie au hasard, dans la mesure où elle se présente comme un « lieu où [l’on peut] partager une opinion dont [on accepte] qu’elle puisse être contestée, dans le but de comprendre les autres points de vue sur le sujet ».
Ainsi, entre novembre 2024 et mars 2025, 34 bots ont publié 1 783 commentaires générés par intelligence artificielle, se faisant passer pour des humains s’exprimant sur des sujets souvent épineux, afin d’influencer le point de vue des internautes. Certains de ces bots étaient capables de personnaliser leur texte en fonction du profil de l’utilisateur qu’ils cherchaient à convaincre, en déduisant de son activité sur Reddit son genre, son âge, son origine ethnique, sa localisation ou encore son orientation politique.
Il vous reste 67.74% de cet article à lire. La suite est réservée aux abonnés.