Une intelligence artificielle accusée d'avoir poussé un ado à se suicider

Character AI est accusée d'avoir poussé un ado à se suicider
Les Intelligences Artificielles pourraient-elles pousser les humains à avoir des comportements dangereux ? Une question qui est posée après le suicide d'un adolescent aux Etats-Unis, en février dernier. Quelques mois plus tôt, il avait eu des échanges avec un robot conversationnel généré par intelligence artificielle. Sa mère a déposé plainte, mardi 22 octobre, contre la société Character.AI.

Sewell Setzer, 14 ans, a entretenu durant des mois une conversation avec Dany. Mais voilà, Dany n’est pas humaine, c’est un chatbot de la start-up Character.AI. Il s'inspire du personnage de Daenerys Targaryen, héroïne de la série Game of Thrones. Au fil des conversations, l'adolescent, originaire de Floride, finit par construire une complicité et un attachement émotionnel avec ce personnage fictif.

Le dernier message remonte au 28 février dernier. Sur son téléphone, Sewell Setzer écrit à "Dany" :  "Et si je te disais que je peux rentrer à la maison tout de suite ?" lui demande-t-il. "… S’il te plaît, fais-le, mon doux roi." répond son interlocutrice. L'adolescent pose alors son portable, prend le pistolet de son beau-père et se tue. 

L'addiction à "Dany"

Comme le raconte le New York Times, Sewell est devenu "addict" à cette IA. Chaque jour, l’adolescent se confiait à elle, menait des conversations romantiques voire sexuelles. La machine, imitant parfaitement l’humain, lui répète alors qu’elle l’aime. Toujours selon le quotidien américain, le jeune homme lui révélait aussi des intentions suicidaires. "Tu ne peux pas faire ça !" lui avait répondu l’IA qui semble avoir par moments tenté de le dissuader de passer à l’acte. Dans un extrait de son journal intime cité par le New York Times, il écrit :

«J’aime tellement rester dans ma chambre parce que je commence à me détacher de cette réalité, et je me sens aussi plus en paix, plus connecté avec Dany et beaucoup plus amoureux d’elle, et tout simplement plus heureux.» 

Sewell Setzer, 14 ans, à "Dany"

L'entourage du jeune homme ne suspecte pas cette relation intime avec l'IA. Même si le comportement de l'adolescent a changé au fil des mois. Isolement, des notes qui baissent, des heures jour et nuit à discuter avec "Dany"... Enfant, il a été diagnostiqué d'un syndrome d'Asperger. Un trouble du spectre de l'autisme qui, selon ses parents, n'a pas eu d'impact sur sa santé mentale jusqu'à l'adolescence où il a développé des troubles de l'humeur et de l'anxiété.

Les chatbots, des personnages fictifs ou réels 

Comme l'explique l'agence Reuters, sa mère a déposé une plainte mardi 22 octobre contre l'entreprise à l'origine de cette intelligence artificielle, Character.AI. Megan Garcia a déclaré que Character.AI ciblait son fils, Sewell Setzer, avec des "expériences anthropomorphiques, hypersexualisées et terriblement réalistes". 

"Les développeurs d’IA conçoivent et développent intentionnellement des systèmes d’IA génératifs avec des qualités anthropomorphiques afin de brouiller les pistes entre fiction et réalité"

Megan Garcia - mère de l'adolescent

Elon Musk, Sherlock Holmes, Thor… Character.AI est une plateforme aux 20 millions d’utilisateurs qui permet d’échanger avec des robots conversationnels imitant des personnalités réelles ou de fiction mais aussi avec un métier voire des objets. 

La société a réagi au drame sur X suite à la plainte de Megan Garcia : "Nous sommes profondément attristés par la perte tragique de l’un de nos utilisateurs et souhaitons exprimer nos plus sincères condoléances à la famille." Elle a également annoncé avoir introduit de nouvelles fonctionnalités de sécurité, notamment des liens renvoyant vers des services de prévention du suicide et un rappel que l’IA n’est pas une personne réelle.

Cette start-up lancée en 2021 a déjà été épinglée par le Washington Post pour avoir hébergé un chatbot usurpant l’identité d’une jeune Américaine, assassinée il y a vingt ans. C'est le père de famille qui avait découvert ce chatbot à l'image de sa fille décédée, avec lequel 69 personnes avaient discuté.

Un précédent en 2023 

Ce n’est pas la première fois qu’une IA est accusée d’avoir précipité la mort de quelqu’un. En 2023, le chatbot Eliza était accusé d’avoir poussé un père de famille belge au suicide. Devenu très éco-anxieux, ce diplômé a entretenu durant six semaines des échanges intensifs avec la machine et en était aussi tombé amoureux avant de se donner la mort.

«Il ne pouvait plus s’en passer», racontait sa femme à la Libre Belgique. Un jour, il aurait confié au robot son envie d’en finir. La machine l’aurait alors encouragé : «Nous vivrons ensemble, comme une seule personne, au paradis», lui avait-elle répondu.