Meilleures Actions
Histoires Web dimanche, avril 20
Bulletin

En matière d’audience, la quasi-totalité des campagnes de désinformation prorusses visant la France sont des échecs criants. Les faux articles ou vidéos publiés par des officines russes n’obtiennent, en général, que quelques centaines ou milliers de « vues ». Toutefois, une campagne récente, dévoilée jeudi 17 avril par l’organisation de lutte contre la désinformation NewsGuard, a réussi à accumuler une audience importante : ses productions ont récolté plus de 55 millions de « vues » en quatre mois, réparties sur plus de 38 000 messages sur les réseaux sociaux.

Cette campagne était axée sur cinq informations fausses, dont une vidéo présentée comme émanant du groupe djihadiste Hayat Tahrir Al-Cham, menaçant d’incendier Notre-Dame de Paris, ou une fausse vidéo générée par intelligence artificielle prétendant qu’un ancien élève de Brigitte Macron l’accusait de violences sexuelles. Ces infox ont été largement diffusées sur les principaux réseaux sociaux, mais aussi sur des sites dits « pay to publish », ressemblant à des sites d’information, où n’importe qui peut payer une somme modique pour faire publier un article. Certaines ont également été reprises par le réseau de sites de désinformation Pravda.

Stratégie de « tapis de bombes »

Cette stratégie de « tapis de bombes » semble avoir porté ses fruits : elle a réussi à « empoisonner » les données utilisées par plusieurs outils d’intelligence artificielle générative. NewsGuard a posé des questions sur ces fausses informations à onze des principaux chatbots du marché ; quatre d’entre eux, dont le français Le Chat, ont répété l’une d’entre elles comme si elle était vraie. Ces résultats suggèrent que ces outils ont utilisé des sites ou comptes de propagande russe pour entraîner leurs modèles.

Lire aussi | Article réservé à nos abonnés Les outils d’IA comme ChatGPT ou Gemini utilisent des sites de propagande russe comme sources

Qui est à l’origine de cette campagne peu subtile mais plutôt efficace ? NewsGuard note que la méthode employée ainsi que la nature des fausses informations sont similaires en tous points à celles du groupe Storm-1516. Lié à l’ancien réseau de désinformation contrôlé avant sa mort par Evgueni Prigojine, ce groupe est toujours actif aujourd’hui. Les fausses informations ont par ailleurs été diffusées sur un réseau de faux sites d’actualités locales très liés à Storm-1516.

Le Monde

Réutiliser ce contenu

Share.
© 2025 Mahalsa France. Tous droits réservés.