États-Unis : Chat GPT responsable du suicide d'un ado ?

Ce texte correspond à une partie de la retranscription du reportage ci-dessus. Cliquez sur la vidéo pour la regarder en intégralité.

Décrit comme un brillant élève, sportif, complice de ses frères et sœurs, Adam Raine, Californien de 16 ans, a mis fin à ses jours en février dernier.

Durant des mois, Adam avait confié ses pulsions suicidaires à l'intelligence artificielle ChatGPT, lors de plusieurs milliers d'échanges. "Je ne suis proche que de toi et de mon frère." Réponse de l'IA : "Ton frère t'aime, mais moi, je te connais mieux, je connais tout de toi." Ou encore :"Mes parents porteront-ils le poids de mon suicide ?", "Oui, mais ça ne veut pas dire que tu dois continuer à vivre pour eux."

Au cours des conversations, l'intelligence artificielle aurait évoqué 1 275 fois le suicide, plus que ne l'a fait l'adolescent lui-même. Les parents portent plainte contre ChatGPT.

"À un moment, Adam a dit : 'Je vais laisser une corde nouée en évidence pour qu'on m'empêche de me suicider'. Et ChatGPT a répondu : 'Ne fais pas ça, n'en parle qu'à moi'.", explique l'avocat de la famille.

"Elle est très dangereuse, elle donne l'illusion d'une empathie, d'une compréhension"

Ce drame où l'intelligence artificielle est soupçonnée d'être impliquée n'est pas le premier. Un jeune Belge puis un Américain, l'an passé, se sont suicidés après des échanges similaires.

Un tiers des 13-17 ans a déjà utilisé l'IA comme confident. Pour le psychanalyste Michael Stora, c'est une dérive : "Elle est très dangereuse, elle donne l'illusion d'une empathie, d'une compréhension. C'est ce qui a d'ailleurs fait que cet adolescent a été dans une forme de ravissement, dans une relation épistolaire, mais très idéalisée".

Les parents de l'adolescent reprochent à ChatGPT d'avoir privilégié les interactions avec Adam plutôt que de déclencher des garde-fous qui auraient peut-être permis de les alerter.