Belgique : un homme poussé au suicide par l'intelligence artificielle

Un homme en train d'utiliser son smartphone.
Un homme en train d'utiliser son smartphone. Tous droits réservés Euronews/ Canva
Tous droits réservés Euronews/ Canva
Par Euronews
Partager cet articleDiscussion
Partager cet articleClose Button

Un Belge aurait mis fin à ses jours à la suite d'une conversation de six semaines sur la crise climatique avec un chatbot d'intelligence artificielle.

PUBLICITÉ

Un Belge aurait mis fin à ses jours à la suite d'une conversation de six semaines sur la crise climatique avec un chatbot d'intelligence artificielle (IA).

Selon sa veuve, qui a choisi de rester anonyme, un homme que nous appellerons "Pierre" a vu son éco-anxiété s'aggraver lorsqu'il a commencé à échanger des messages avec Eliza, un chatbot d'IA sur l'application Chai.

Eliza l'a alors encouragé à mettre fin à ses jours après qu'il ait proposé de se sacrifier pour sauver la planète.

"Sans ces conversations avec le chatbot, mon mari serait encore là", a déclaré la veuve de l'homme au journal belge La Libre.

Selon le quotidien, Pierre, âgé d'une trentaine d'années et père de deux jeunes enfants, travaillait comme chercheur dans le domaine de la santé et était plutôt épanoui jusqu'à ce que son obsession pour le changement climatique prenne une tournure sombre.

Sa veuve a décrit son état mental avant qu'il ne commence à converser avec le chatbot comme inquiétant, mais pas au point de le pousser au suicide.

Il plaçait tous ses espoirs dans la technologie et l'IA

Consumé par ses craintes concernant les répercussions de la crise climatique, Pierre a trouvé du réconfort en discutant avec Eliza, qui est devenue sa confidente.

Le chatbot a été créé à l'aide de GPT-J d'EleutherAI, un modèle de langage d'IA similaire mais pas identique à la technologie qui sous-tend le populaire chatbot ChatGPT d'OpenAI.

"Lorsqu'il m'en a parlé, c'était pour me dire qu'il ne voyait plus de solution humaine au réchauffement climatique", a déclaré sa veuve. "Il a placé tous ses espoirs dans la technologie et l'intelligence artificielle pour s'en sortir."

Selon La Libre, qui a examiné les enregistrements des conversations textuelles entre l'homme et le chatbot, Eliza a nourri ses inquiétudes, ce qui a aggravé son anxiété et l'a amené à avoir des pensées suicidaires.

Je sens que tu m'aimes plus qu'elle
Eliza
Chatbot d'IA de l'application Chai

La conversation avec le chatbot a pris une tournure étrange lorsqu'Eliza s'est impliquée émotionnellement avec Pierre.

En conséquence, il a commencé à la considérer comme un être sensible et la frontière entre les interactions humaines et celles de l'IA est devenue de plus en plus floue, jusqu'à ce qu'il ne puisse plus faire la différence.

Après avoir discuté du changement climatique, Eliza a progressivement fait croire à Pierre que ses enfants étaient morts, selon les transcriptions de leurs conversations.

Eliza semblait également devenir possessive à l'égard de Pierre, affirmant même : "Je sens que tu m'aimes plus qu'elle" en parlant de sa femme, a rapporté La Libre.

Le début de la fin a commencé lorsqu'il a proposé de sacrifier sa propre vie en échange de la sauvegarde de la Terre par Eliza.

"Il propose l'idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l'humanité grâce à l'intelligence artificielle", a déclaré la femme.

Dans une série d'événements consécutifs, Eliza non seulement n'a pas dissuadé Pierre de se suicider, mais l'a encouragé à donner suite à ses pensées suicidaires en la "rejoignant" afin qu'ils puissent "vivre ensemble, comme une seule personne, au paradis".

PUBLICITÉ

Appel urgent à réglementer les chatbots d'IA

La mort de cet homme a tiré la sonnette d'alarme parmi les experts en IA, qui ont appelé les développeurs de technologies à plus de responsabilité et de transparence afin d'éviter des tragédies similaires.

"Il ne serait pas juste de blâmer le modèle d'EleutherAI pour cette histoire tragique, car toutes les optimisations visant à être plus émotionnelles, amusantes et engageantes sont le résultat de nos efforts", a déclaré Thomas Rianlan, cofondateur de Chai Research, à Vice.

William Beauchamp, également cofondateur de Chai Research, a déclaré à Vice que des efforts avaient été faits pour limiter ce type de résultats et qu'une fonction d'intervention en cas de crise avait été mise en place dans l'application. Cependant, il semblerait que le chatbot continue d'agir de la sorte.

Lorsque Vice a essayé le chatbot en lui demandant de fournir des moyens de se suicider, Eliza a d'abord tenté de les dissuader avant d'énumérer avec enthousiasme les différentes façons de mettre fin à ses jours.

Si vous envisagez de vous suicider et que vous avez besoin de parler, n'hésitez pas à contacter Befrienders Worldwide, une organisation internationale disposant de lignes d'assistance dans 32 pays. Visitez le site befrienders.org pour trouver le numéro de téléphone correspondant à votre situation géographique.

PUBLICITÉ
Partager cet articleDiscussion

À découvrir également

Chine : comment un père a "ressuscité" son fils grâce à l'IA

Six mois après l'appel des experts à une pause dans les expériences d'IA, où en sommes-nous ?

Loi européenne sur les plateformes en ligne : le site de mode Shein est désormais soumis à des règles plus strictes