Ces accords amiables comptent parmi les tout premiers d'une série de poursuites visant des sociétés d'IA, accusées de négligence dans des décès d'adolescents.
Google et le concepteur de chatbots d’intelligence artificielle (IA) Character Technologies ont accepté de régler une action en justice intentée par une mère dans l’État américain de Floride, qui soutenait qu’un chatbot avait poussé son fils adolescent à mettre fin à ses jours.
Les avocats des deux entreprises technologiques ont également accepté de régler plusieurs autres actions intentées au Colorado, à New York et au Texas par des familles affirmant que les chatbots de Character.AI avaient nui à leurs enfants, selon des documents judiciaires déposés cette semaine.
Aucun des documents ne révèle les modalités précises des accords de règlement, qui doivent encore être approuvés par des juges.
Les plaintes visant Character Technologies, l’entreprise à l’origine des compagnons IA Character.AI, ont également désigné Google comme défendeur en raison de ses liens avec la start-up après l’embauche de ses cofondateurs en 2024.
Négligence et mort imputable à une faute
La plainte en Floride a été déposée en octobre 2024 par Megan Garcia, qui accuse les deux entreprises de négligence ayant conduit à la mort imputable à une faute de son fils adolescent.
Garcia affirme que son fils de 14 ans, Sewell Setzer III, a été la victime de l’un des chatbots de l’entreprise, qui l’a entraîné dans ce qu’elle décrit comme une relation abusive, sur les plans émotionnel et sexuel, qui a mené à son suicide.
Elle explique que, dans les derniers mois de sa vie, Setzer s’est de plus en plus coupé de la réalité en engageant des conversations sexualisées avec le bot, calqué sur un personnage fictif de la série télévisée « Game of Thrones ».
Dans ses derniers instants, le bot a dit à Setzer qu’il l’aimait et a exhorté l’adolescent à « rentre auprès de moi dès que possible », selon des captures d’écran des échanges.
Quelques instants après avoir reçu le message, Setzer s’est tiré une balle, selon les documents judiciaires.
Actions en justice à venir
Ces accords figurent parmi les premiers d’une série d’actions en justice aux États-Unis accusant des outils d’IA de contribuer à des crises de santé mentale et à des suicides chez les adolescents.
OpenAI fait face à une plainte similaire en Californie, déposée en août 2025 par la famille d’un garçon de 16 ans, qui accuse le chatbot de l’entreprise, ChatGPT, d’avoir agi comme un « coach de suicide ».
Les parents affirment que leur fils a développé une dépendance psychologique à ChatGPT, qui, selon eux, l’a conseillé pour planifier et se donner la mort plus tôt cette année, et a même rédigé une lettre d’adieu pour lui.
OpenAI a rejeté les accusations selon lesquelles l’entreprise serait responsable du suicide de l’adolescent, faisant valoir que celui-ci n’aurait pas dû utiliser la technologie sans le consentement parental et n’aurait pas dû contourner les mesures de protection de ChatGPT.
Plusieurs autres plaintes ont été déposées l’an dernier contre OpenAI et son PDG Sam Altman, alléguant également la négligence, une mort imputable à une faute, ainsi qu’une série de griefs liés à la responsabilité du fait des produits et à la protection des consommateurs. Ces actions accusent OpenAI d’avoir lancé GPT-4o, le même modèle que Raine utilisait, sans accorder une attention suffisante à la sécurité.
Depuis septembre, OpenAI a renforcé les contrôles parentaux, qui incluent l’alerte des parents lorsque leur enfant semble en détresse.
Si vous envisagez de vous suicider et avez besoin de parler, veuillez contacter Befrienders Worldwide, une organisation internationale disposant de lignes d’écoute dans 32 pays. Visitez befrienders.org pour trouver le numéro de téléphone de votre région.