« C’est assez étonnant de voir le niveau de confiance qu’on accorde aux assistants d’intelligence artificielle [IA], en tant qu’utilisateurs. » Invitée du Festival du Monde, dimanche 21 septembre, Giada Pistilli, responsable de l’éthique dans la start-up d’IA Hugging Face, a pointé du doigt la tendance des internautes à nouer des relations personnelles, voire intimes, avec les assistants de type ChatGPT, Gemini, Meta AI ou Le Chat.

Lire aussi | Article réservé à nos abonnés ChatGPT annonce un contrôle parental après un suicide d’adolescent

Ce genre d’utilisation non professionnelle a été mis en lumière, ces derniers mois, par plusieurs polémiques, notamment autour du suicide d’Adam Raine, un adolescent américain dont les parents ont porté plainte contre OpenAI fin août, accusé d’avoir laissé son service ChatGPT accompagner leur fils pendant des mois dans sa démarche. « C’est une tendance qui commence à inquiéter », reconnaît Mme Pistilli, qui a fait sa thèse sur les assistants conversationnels et prépare un livre sur leur rôle de « compagnons ». Ce phénomène, jugé « complexe », est aussi un défi pour les fabricants d’IA, sommés de mieux encadrer leurs outils.

« Quelque 72 % des adolescents américains auraient déjà utilisé des assistants d’IA en tant que compagnons, par exemple pour partager des histoires intimes de leur vie ou même pour tisser des liens émotionnels, selon une étude récente, souligne la philosophe italienne passée par la Sorbonne. On se confie encore davantage aux assistants d’IA que sur les réseaux sociaux. Un nouveau degré de confidentialité est franchi. » La chercheuse cite un « meme » – une image ou un détournement humoristique partagé sur les réseaux sociaux – montrant un iceberg où la partie « ce que je dis à ChatGPT » est plus profondément immergée que « ce que je dis à mes parents », « à mes amis » ou même « à mon psychiatre »

Lire l’analyse | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA

Certaines polémiques récentes, dont le suicide d’Adam Raine, ont fait émerger un débat sur le risque de « psychose chatbot », une sorte de « spirale où on se détache progressivement de la réalité et on se renferme dans la relation avec l’assistant », note la responsable éthique de Hugging Face, citant la référence au film d’anticipation de Spike Jonze, Her (2013), dans lequel le personnage tombe amoureux d’une IA. A un degré moindre, une forme d’« attachement émotionnel » a été révélée chez certains utilisateurs qui se sont plaints du changement de ton entre le modèle d’OpenAI GPT5, sorti en août, et son prédécesseur GPT4o. « Certains l’ont vécu comme un deuil », note Mme Pistilli.

Il vous reste 51.83% de cet article à lire. La suite est réservée aux abonnés.

Share.
Exit mobile version