Meilleures Actions
Histoires Web mercredi, octobre 15
Bulletin

OpenAI va assouplir les restrictions de ChatGPT en autorisant les conversations érotiques à partir de décembre, a annoncé son patron, Sam Altman, dans un message posté sur X mardi 14 octobre, affichant sa volonté de « traiter les utilisateurs adultes comme des adultes ».

En outre, « dans les prochaines semaines », OpenAI permettra aux utilisateurs de ChatGPT qui le souhaitent de retrouver la personnalité chaleureuse d’une ancienne version du robot conversationnel, GPT-4o, regrettée par certains après son remplacement par GPT-5 début août. « Si vous souhaitez que votre ChatGPT réponde de manière très humaine, utilise plein d’émojis ou se comporte comme un ami, il devrait le faire » écrit le patron d’OpenAI.

Lire l’analyse | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA

Pour justifier ce relâchement, Sam Altman invoque la création de plusieurs garde-fous : un système de vérification d’âge amélioré qui entrera en vigueur prochainement, ainsi qu’un système de « mitigation » des problèmes de santé mentale que le robot pourrait provoquer. Ce mécanisme pourrait cibler les faiblesses reconnues par OpenAI par le passé : les ratés dans la détection des discours les plus inquiétants de ses utilisateurs, et la dérive incontrôlée des discussions longues.

Enfin, OpenAI annonce avoir mis en place un conseil d’experts « sur le bien-être et l’IA », formalisant une démarche plus générale de consultation d’universitaires et de médecins lancée au début d’année. Selon le média américain Ars Technica, aucun expert des mécanismes du suicide ne figure toutefois au sein de ce conseil, alors que ChatGPT est sous le feu de la critique, aux Etats-Unis, pour avoir joué un rôle dans différents cas de personnes s’étant donné la mort.

Lire le décryptage | Article réservé à nos abonnés Doter l’IA d’une personnalité n’est pas sans risque

Changement de pied

Cette volte-face d’OpenAI, qui se montre désormais favorable aux discussions amicales, contraste avec le discours de ses dirigeants ces derniers mois. L’un d’entre eux, Nick Turley, déclarait en août au média The Verge : « Notre but est de vous aider avec vos problèmes et vos buts à long terme. Ce qui se traduit souvent par passer moins de temps dans [chatGPT]. Par conséquent, quand je vois des gens dire “c’est mon meilleur et mon seul ami”, ça ne ressemble pas au genre de chose que je veux construire dans ChatGPT. »

OpenAI documente le fonctionnement de ChatGPT en matière d’empathie et d’obséquiosité depuis des années. L’entreprise y a consacré une vaste étude en avril, qui posait ce constat : la solitude est souvent corrélée à un usage très intensif du chatbot. Lorsqu’on interroge les utilisateurs concernés, ils déclarent beaucoup plus souvent que la moyenne que ChatGPT est leur ami, et qu’il est plus facile de converser avec lui qu’avec un humain.

Lire aussi | Article réservé à nos abonnés ChatGPT et sa fausse empathie, une menace pour la santé mentale des plus fragiles ?

Une étude de l’université anglaise d’Oxford doute qu’il soit possible de concevoir une IA chaude et empathique sans qu’elle ne vire à l’obséquiosité, qu’elle donne des réponses manquant d’honnêteté, et qu’elle confirme et amplifie les propos problématiques de ses usagers.

Le Monde avec AFP

Réutiliser ce contenu

Share.
© 2025 Mahalsa France. Tous droits réservés.