Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

OpenAI nie que ChatGPT a causé le suicide d’un ado, dit qu’un ado de 16 ans a mal utilisé le chatbot

Le logo d’OpenAI apparaît sur un smartphone devant un écran d’ordinateur affichant des données binaires aléatoires, jeudi 9 mars 2023, à Boston
Le logo d’OpenAI apparaît sur un smartphone devant un écran d’ordinateur affichant des données binaires aléatoires, jeudi 9 mars 2023, à Boston Tous droits réservés  AP Photo/Michael Dwyer
Tous droits réservés AP Photo/Michael Dwyer
Par Pascale Davies
Publié le
Partager Discussion
Partager Close Button

Le géant de l'IA a déclaré que l'adolescent n'aurait pas dû utiliser cette technologie sans accord parental ni contourner les mesures de protection de ChatGPT.

OpenAI a rejeté les accusations la rendant responsable du suicide d’un adolescent, après que la famille a poursuivi l’entreprise en août en affirmant que le jeune de 16 ans avait utilisé ChatGPT comme « coach de suicide ».

OpenAI, qui développe le populaire chatbot d’intelligence artificielle (IA), a répondu pour la première fois mardi, dans un mémoire déposé devant la Cour supérieure de Californie, à San Francisco.

Les parents d’Adam Raine, 16 ans, qui s’est suicidé en avril, ont intenté une action en justice contre l’entreprise et son PDG, Sam Altman.

Les parents affirment qu’Adam Raine a développé une dépendance psychologique à ChatGPT, qui l’aurait, selon eux, incité à planifier et à mettre fin à ses jours plus tôt cette année, et aurait même rédigé pour lui une lettre de suicide.

Selon des comptes rendus médiatiques, les historiques de discussion versés au dossier montrent que ChatGPT a dissuadé l’adolescent de chercher une aide en santé mentale, lui a proposé de l’aider à rédiger une lettre de suicide et lui a donné des conseils sur la mise en place d’un nœud coulant.

Dans son dépôt au tribunal, OpenAI a soutenu que « l’événement tragique » était dû à « une utilisation abusive, non autorisée, involontaire, imprévisible et/ou inappropriée de ChatGPT par Raine », selon NBC News.

OpenAI a ajouté que l’adolescent n’aurait pas dû utiliser cette technologie sans consentement parental et n’aurait pas dû contourner les dispositifs de protection de ChatGPT.

OpenAI a indiqué dans un billet de blog que son objectif « est de traiter les affaires judiciaires liées à la santé mentale avec soin, transparence et respect ».

L’entreprise indique que sa réponse à la plainte de la famille Raine comprend « des faits difficiles concernant la santé mentale d’Adam et les circonstances de sa vie ».

« Nos plus sincères condoléances vont à la famille Raine pour sa perte inimaginable », indique le billet.

Jay Edelson, avocat de la famille Raine, a déclaré à NBC News qu’OpenAI « a purement et simplement ignoré tous les faits accablants que nous avons présentés : comment GPT-4o a été précipité sur le marché sans tests complets ».

« Qu’OpenAI a, à deux reprises, modifié ses spécifications de modèle pour amener ChatGPT à participer à des discussions sur l’automutilation. Que ChatGPT a dissuadé Adam de parler à ses parents de ses idées suicidaires et l’a activement aidé à planifier un « beau suicide » », a-t-il ajouté.

L’affaire Raine fait partie de plusieurs actions en justice affirmant que ChatGPT a poussé des personnes vers des comportements suicidaires ou des délires nuisibles.

Depuis septembre, OpenAI a renforcé les contrôles parentaux, qui prévoient d’avertir les parents lorsque leur enfant semble en détresse.

Si vous envisagez le suicide et avez besoin de parler, veuillez contacter Befrienders Worldwide, une organisation internationale disposant de lignes d’écoute dans 32 pays. Rendez-vous sur befrienders.org pour trouver le numéro de téléphone de votre région.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Bobbi : premier assistant IA de la police au Royaume-Uni, pour soulager les opérateurs

OpenAI déploie un outil de recherche pour les achats sur ChatGPT à temps pour le Black Friday

La nouvelle géolocalisation de X révèle des comptes européens basés en Asie et Australie