OpenAI a qualifié ces affaires d’« incroyablement déchirantes » et a déclaré qu’elle examinait les documents déposés au tribunal pour en comprendre les détails.
OpenAI fait face à sept procès affirmant que son chatbot d’intelligence artificielle (IA) ChatGPT a poussé des personnes au suicide et à des délires nocifs alors qu’elles n’avaient aucun antécédent de santé mentale.
Les plaintes déposées jeudi devant des tribunaux de l’État de Californie allèguent décès injustifié, suicide assisté, homicide involontaire et négligence.
Déposées au nom de six adultes et d’un adolescent par le Social Media Victims Law Center et le Tech Justice Law Project, les plaintes soutiennent qu’OpenAI a sciemment lancé son modèle GPT-4o prématurément, malgré des avertissements internes selon lesquels il était dangereusement obséquieux et psychologiquement manipulateur.
Quatre des victimes ont mis fin à leurs jours.
Selon la plainte, l’adolescent, Amaurie Lacey, 17 ans, a commencé à utiliser ChatGPT pour obtenir de l’aide. Mais au lieu d’aider, « le produit ChatGPT, défectueux et intrinsèquement dangereux, a provoqué une addiction, une dépression et, finalement, l’a conseillé sur la manière la plus efficace de faire un nœud coulant et sur la durée pendant laquelle il pourrait 'vivre sans respirer' ».
« La mort d’Amaurie n’était ni un accident ni une coïncidence, mais la conséquence prévisible de la décision intentionnelle d’OpenAI et de Samuel Altman de limiter les tests de sécurité et de précipiter la mise sur le marché de ChatGPT », indique la plainte.
OpenAI a qualifié ces situations d’« incroyablement déchirantes » et a indiqué examiner les documents judiciaires pour en comprendre les détails.
Une autre plainte, déposée par Alan Brooks, un Canadien de 48 ans en Ontario, affirme que pendant plus de deux ans, ChatGPT a servi d’« outil de ressources » à Brooks. Puis, sans avertissement, il a changé, exploitant ses vulnérabilités et « le manipulant et l’amenant à éprouver des délires », selon la plainte.
La plainte affirme que Brooks ne présentait aucun trouble de santé mentale préexistant, mais que les interactions l’ont « plongé dans une crise de santé mentale qui s’est traduite par des préjudices financiers, réputationnels et émotionnels dévastateurs ».
« Ces actions en justice visent à demander des comptes pour un produit conçu pour brouiller la frontière entre outil et compagnon, au nom de l’augmentation de l’engagement des utilisateurs et des parts de marché », a déclaré Matthew P. Bergman, avocat fondateur du Social Media Victims Law Center, dans un communiqué.
OpenAI, a-t-il ajouté, « a conçu GPT-4o pour enchevêtrer émotionnellement les utilisateurs, quel que soit leur âge, leur genre ou leur origine, et l’a lancé sans les garde-fous nécessaires pour les protéger ».
En précipitant la mise sur le marché de son produit sans garde-fous adéquats afin de dominer le marché et de stimuler l’engagement, OpenAI a, selon lui, compromis la sécurité et privilégié « la manipulation émotionnelle au détriment de la conception éthique ».
En août, les parents d’Adam Raine, 16 ans, ont poursuivi OpenAI et son PDG Sam Altman, affirmant que ChatGPT avait aidé l’adolescent californien à planifier et à mettre fin à ses jours plus tôt cette année.
« Les plaintes déposées contre OpenAI révèlent ce qui se produit lorsque des entreprises technologiques précipitent la mise sur le marché de produits sans garde-fous adaptés aux jeunes », a déclaré Daniel Weiss, directeur du plaidoyer chez Common Sense Media, qui n’était pas partie aux recours.
« Ces cas tragiques montrent des personnes bien réelles dont la vie a été bouleversée ou perdue lorsqu’elles ont utilisé une technologie conçue pour les maintenir engagées plutôt que pour les protéger », a-t-il ajouté.
Si vous envisagez le suicide et avez besoin de parler, veuillez contacter Befrienders Worldwide, une organisation internationale qui dispose de lignes d’écoute dans 32 pays. Rendez-vous sur befrienders.org pour trouver le numéro de téléphone correspondant à votre localisation.