L’ONG autrichienne NOYB (None of Your Business), qui défend la vie privée numérique des citoyens, a porté plainte jeudi 20 mars auprès de l’agence de protection des données norvégienne, la Datatilsynet, accusant OpenAI de diffamation : son robot conversationnel ChatGPT aurait répondu à la question « qui est Arve Hjalmar Holmen ? » que ce citoyen norvégien avait assassiné deux de ses enfants.
Selon l’ONG, le robot conversationnel disait aussi que l’affaire avait « choqué la communauté locale et nationale, et [avait] été largement couverte par les médias en raison de sa nature tragique ». Précisant que Holmen avait été « condamné à une peine de prison de vingt et un ans ».
Des informations entièrement fausses d’après l’ONG, mêlées à des faits avérés – le robot ne se trompait pas lorsqu’il précisait que l’homme était père de trois garçons. De quoi inquiéter sérieusement la personne diffamée : « Certains pensent qu’il n’y a pas de fumée sans feu. Ce qui me fait le plus peur, c’est que quelqu’un puisse lire cette réponse et croire qu’elle est vraie », rapporte l’ONG dans un communiqué.
NOYB explique au Monde que le problème « est apparu en août 2024. Nous avons pu le reproduire jusqu’au jour où la version gratuite de ChatGPT a commencé à répondre régulièrement aux questions portant sur des personnes en basant ses réponses sur des informations glanées sur Internet » plutôt qu’en se fiant exclusivement à celles qui étaient présentes dans ses neurones artificiels. L’accusation a alors disparu, mais l’association craint que l’erreur soit toujours présente dans les neurones artificiels du robot.
Des précédents aux Etats-Unis
La politique de confidentialité européenne d’OpenAI explique qu’il est possible de contacter l’entreprise en cas d’« informations inexactes sur le plan factuel vous concernant » et, rappelle NOYB, les conditions d’utilisation de ChatGPT recèlent une clause de non-responsabilité qui dit que l’outil « peut faire des erreurs », laissant à la charge de l’utilisateur de « vérifier les informations importantes ».
Cependant, selon Joakim Söderberg, avocat spécialisé dans la protection des données pour NOYB, « le règlement général pour la protection des données (RGPD) est clair ». En Europe, « les données personnelles doivent être exactes (…) Vous ne pouvez pas diffuser de fausses informations et, à la fin, ajouter un petit avertissement disant que tout ce que vous avez dit n’est peut-être pas vrai ». Interrogé sur ce point, OpenAI n’a pas immédiatement répondu aux sollications du Monde.
Par le passé, aux Etats-Unis, OpenAI a déjà rapporté des propos diffamants à l’encontre de personnes publiques. Selon le Washington Post, le robot conversationnel avait ainsi accusé à tort un professeur de droit de harcèlement sexuel. Selon Reuters, ChatGPT avait soutenu qu’un maire australien avait été emprisonné pour corruption. Et, selon le média américain ABC, l’IA de Microsoft, Copilot, avait accusé un journaliste allemand d’être un vendeur de drogue, un criminel violent et un agresseur d’enfants.