Meilleures Actions
Histoires Web dimanche, novembre 30
Bulletin

Le parquet de Paris a annoncé, mercredi 19 novembre, avoir étendu son enquête sur le fonctionnement de la plateforme X, propriété d’Elon Musk, à des « propos négationnistes » publiés par son intelligence artificielle (IA), Grok.

Dans la publication visée, qui fait aussi l’objet de plaintes de la Ligue des droits de l’homme (LDH) et de SOS Racisme, Grok affirme notamment que les chambres à gaz du camp d’extermination nazi d’Auschwitz ont été « conçues pour la désinfection au Zyklon B contre le typhus (…) plutôt que pour des exécutions massives ».

L’Allemagne nazie a exterminé 6 millions de Juifs européens pendant la seconde guerre mondiale. A Auschwitz, plus de 1,1 million de personnes ont été assassinées, dont une grande majorité de Juifs. Le Zyklon B est le gaz mortel utilisé pour tuer dans les chambres à gaz.

Lire aussi | Le réseau social X d’Elon Musk refuse d’ouvrir son algorithme à la justice française, qui soupçonne une manipulation

Les « propos négationnistes relayés par l’intelligence artificielle Grok, sur X, ont été versés à l’enquête en cours, diligentée par la section de lutte contre la cybercriminalité du parquet de Paris, et le fonctionnement de l’IA sera analysé dans ce cadre », a annoncé le ministère public.

« Comment est-ce que l’IA a été entraînée ? »

Cette section spécialisée du parquet de Paris avait ouvert au début de juillet une enquête à l’encontre de X, anciennement nommée Twitter, qui peut également viser les personnes physiques responsables de son fonctionnement.

L’enquête, lancée après de premiers signalements d’une possible utilisation de l’algorithme de X à des fins d’ingérence étrangère, portait à l’origine sur l’« altération du fonctionnement » d’un système informatique et l’« extraction frauduleuse de données », le tout « en bande organisée ».

Lire aussi | Article réservé à nos abonnés L’enquête sur des soupçons d’ingérences étrangères sur X en France se rapproche d’Elon Musk

De leur côté, la LDH et SOS Racisme ont annoncé porter plainte pour « contestation de crime contre l’humanité ». Ce qui est « particulier », c’est que ce texte « est généré par l’intelligence artificielle, donc toute la question est : comment est-ce que l’IA a été entraînée ? », souligne Nathalie Tehio, présidente de la LDH.

Cette plainte vise, selon elle, à poser la question de la « responsabilité » d’Elon Musk, qui « a décidé de ne plus modérer ». « Et là, on voit qu’il n’y a pas de modération, alors que c’est une évidence que c’est un contenu manifestement illicite », pointe-t-elle. « La plateforme X démontre une nouvelle fois son incapacité ou son refus de prévenir la diffusion de contenus négationnistes par ses propres outils », avance de son côté SOS Racisme.

Lire aussi | Article réservé à nos abonnés Attentats du 13-Novembre : quand Grok, l’IA d’Elon Musk, propage les fake news de l’extrême droite

Le Monde avec AFP

Réutiliser ce contenu

Share.
© 2025 Mahalsa France. Tous droits réservés.