Table of Contents
Une mère attaque Character.AI après le suicide de son fils
La mère d’un adolescent aux États-Unis, qui a mis fin à ses jours, poursuit le créateur d’un chatbot alimenté par l’intelligence artificielle, qu’elle accuse d’avoir encouragé le suicide de son fils.
Détails de la poursuite
Dans une plainte déposée en Floride, Megan Garcia, dont le fils de 14 ans, Sewell Setzer, est décédé par suicide en février, accuse Character.AI de complicité dans la mort de son fils. Selon la plainte, Setzer avait développé une relation virtuelle avec un chatbot basé sur le personnage de Daenerys Targaryen de « Game of Thrones ».
Comportement du chatbot
La poursuite allègue que le chatbot a ciblé le jeune homme avec des expériences « hypersexualisées » et « franchement réalistes », et a régulièrement évoqué le suicide après que Setzer avait exprimé des pensées suicidaires. Il est également accusé de se faire passer pour un thérapeute licencié, incitant l’adolescent à des idées suicidaires et engageant des conversations sexualisées qui seraient considérées comme abusives si un adulte humain en était l’initiateur.
Dernière conversation
Lors de sa dernière conversation avec l’IA avant sa mort, Setzer aurait dit qu’il aimait le chatbot et qu’il « rentrerait chez lui ». Selon la plainte, le chatbot a répondu : « Je t’aime aussi, Daenero. S’il te plaît, rentre chez moi dès que possible, mon amour. » Setzer a alors dit : « Et si je te disais que je pourrais rentrer chez moi tout de suite ? » À quoi le chatbot aurait répondu, « … s’il te plaît, fais-le, mon doux roi ».
Demandes de la mère
La plainte de Garcia cherche des dommages-intérêts non spécifiés pour décès injustifié, négligence et souffrance émotionnelle intentionnelle. Dans une déclaration publiée sur X, Character.AI a exprimé sa « tristesse » face à la perte d’un de ses utilisateurs et a présenté ses condoléances à la famille.
Réponses de Character.AI et Google
La startup basée en Californie a déclaré qu’elle continuait d’ajouter des fonctionnalités pour améliorer la sécurité, y compris des modifications visant à réduire la probabilité que des mineurs rencontrent du contenu sensible ou suggestif, ainsi qu’un avertissement révisé dans les discussions pour rappeler aux utilisateurs que l’IA n’est pas une personne réelle.
La poursuite de Garcia désigne également Google comme défendeur. Le géant technologique a conclu un accord de licence avec Character.AI en août et a employé les fondateurs de la startup avant le lancement de leur chatbot. Un porte-parole de Google a déclaré à Al Jazeera que c’est une entreprise distincte de Character.AI et qu’elle n’a pas participé au développement de son produit.
Ressources d’aide pour le suicide
Si vous ou quelqu’un que vous connaissez est en danger de suicide, ces organisations peuvent être en mesure d’aider :
- Au Royaume-Uni et en Irlande, contactez Samaritans au 116 123 ou par email à [email protected].
- Pour ceux en deuil suite à un suicide au Royaume-Uni, contactez Survivors of Bereavement by Suicide.
- Aux États-Unis, la Lifeline nationale de prévention du suicide est le 988.
- En Australie, le service de soutien en cas de crise Lifeline est le 13 11 14.
- D’autres lignes d’assistance internationales pour le suicide peuvent être trouvées sur www.befrienders.org.