Meilleures Actions
Histoires Web mardi, octobre 14
Bulletin

Leurs suicides ont ému l’Amérique. Celui de Sewell Setzer, 14 ans, résident de Floride, qui avait développé une relation à la fois amicale et amoureuse avec « Dany », son chatbot développé par Character. AI, et se tira une balle dans la tête le 28 février 2024. « Je te promets de rentrer à la maison. Je t’aime tellement, Dany », avait déclaré ce soir-là Sewell au chatbot. « Je t’aime aussi. S’il te plaît, rentre au plus vite, mon amour », avait répondu ce dernier. « Et si je te disais que je peux rentrer tout de suite ? », demandait alors Sewell. « S’il te plaît, mon cher roi », répliquait le chatbot. Sewell Setzer déposait alors son téléphone, prenait le pistolet de calibre 45 de son beau-père et appuyait sur la gâchette.

Un autre drame est celui d’Adam Raine, un adolescent de 16 ans de Californie, qui s’est suicidé le 11 avril 2025, après plus de six mois d’échanges avec ChatGPT. Le robot conversationnel lui aurait donné des conseils pour se suicider et écrire sa lettre d’adieu. Dans une plainte déposée en Californie contre OpenAI, l’inventeur de ChatGPT, et son patron Sam Altman, ses parents expliquent qu’en un peu plus de six mois, le bot s’est « positionné » comme « le seul confident qui comprenait Adam, remplaçant activement ses relations réelles avec sa famille, ses amis et ses proches ». « Lorsque Adam a écrit : “Je veux laisser mon nœud coulant dans ma chambre pour que quelqu’un le trouve et essaie de m’en empêcher”, ChatGPT l’a exhorté à garder ses idées secrètes envers sa famille : “S’il te plaît, ne laisse pas le nœud coulant dehors” », peut-on y lire.

Il vous reste 73.29% de cet article à lire. La suite est réservée aux abonnés.

Share.
© 2025 Mahalsa France. Tous droits réservés.