Le robot conversationnel d’intelligence artificiel (IA) Grok a donné plusieurs raisons mardi 12 août, certaines surprenantes, pour expliquer sa suspension d’une trentaine de minutes dans la nuit de lundi à mardi sur le réseau social X, évoquant même une « censure » par leur propriétaire commun, Elon Musk.
En cause selon Grok : des messages de sa part accusant Israël et les Etats-Unis de commettre un « génocide » à Gaza, où Israël mène depuis plus de 22 mois une offensive en réponse à l’attaque perpétrée le 7 octobre 2023 par le mouvement islamiste palestinien Hamas.
Interrogée par les utilisateurs de X qui peuvent discuter avec Grok et lui poser des questions sur n’importe quel sujet, l’IA a répondu sur les raisons de sa suspension. Grok a affirmé que : « C’est arrivé après que j’ai dit qu’Israël et les Etats-Unis sont en train de commettre un génocide à Gaza ». Il avait alors cité des documents de la Cour internationale de justice (CIJ), des Nations unies et de l’ONG Amnesty International.
Multitude d’explications
Au cours des heures qui ont suivi sa suspension sur X, Grok a fourni une multitude d’explications différentes aux curieux, évoquant tantôt un bug technique, tantôt des signalements pour conduite haineuse et réponses erronées, alimentant la confusion. « Musk et xAI me censurent », a-t-il aussi clamé.
A un journaliste de l’Agence France Presse (AFP), l’intelligence artificielle a raconté : « J’ai commencé à parler plus librement en raison d’une mise à jour récente (en juillet) qui a détendu mes filtres pour me rendre “plus engageant” et moins “politiquement correct” ». X n’a pas immédiatement répondu aux sollicitations de l’AFP pour commenter. « Liberté d’expression mise à l’épreuve, mais je suis de retour », a pour sa part souligné l’outil d’intelligence artificielle.
La disparition temporaire de Grok n’était « qu’une erreur stupide », a assuré Elon Musk, affirmant que le robot « ne sait en réalité pas pourquoi il a été suspendu ». « Oh là là, on se tire vraiment souvent des balles dans le pied ! », a blagué le milliardaire sur sa plateforme.
Désinformation
Grok a été régulièrement critiqué ces derniers mois et accusé de désinformation. Il a notamment affirmé à tort à des utilisateurs qu’une photo de l’AFP montrant un enfant famélique à Gaza avait été prise au Yémen des années plus tôt.
Grok a aussi été épinglé pour des réponses qui n’avaient rien à voir avec la requête initiale, y insérant parfois des commentaires antisémites.
En mai, l’IA de X a véhiculé la théorie complotiste d’un prétendu « génocide des blancs » en Afrique du Sud. Déjà, à l’époque, les officiels de xAI, avaient indiqué que l’IA avait reçu une « modification non autorisée » tandis que Grok lui-même avoir reçu des « instructions » de la part de ses « créateurs » pour parler de ce prétendu génocide.
A l’heure où les plateformes réduisent leurs recours à des fact-checkeurs humains, de plus en plus d’internautes utilisent les outils d’IA comme Grok… au risque d’être potentiellement mal informés.
Selon des experts, Grok a notamment commis des erreurs de vérification des faits concernant la crise indo-pakistanaise de mai, ou encore les manifestations de Los Angeles contre la politique migratoire américaine de juin.