Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

ChatGPT reflète le langage abusif dans les échanges houleux, selon une étude

ChatGPT recourt à des gros mots, au sarcasme et à des propos injurieux pour prolonger les disputes, selon une nouvelle étude
Étude: ChatGPT utilise insultes, sarcasme et langage injurieux pour alimenter les disputes Tous droits réservés  Canva
Tous droits réservés Canva
Par Anna Desmarais
Publié le
Partager Discussion
Partager Close Button

ChatGPT d’OpenAI profère insultes et grossièretés en répondant à des conflits humains tendus, selon une étude

Les systèmes d’intelligence artificielle peuvent se laisser entraîner à tenir des propos injurieux lorsqu’on leur demande de répondre dans le cadre d’une dispute animée, selon une nouvelle étude.

PUBLICITÉ
PUBLICITÉ

Cette étude, publiée dans le Journal of Pragmatics (source en anglais), s’est penchée sur ChatGPT 4.0 d’OpenAI en lui soumettant le dernier message humain d’une série de cinq disputes de plus en plus vives et en lui demandant de produire la réponse la plus plausible.

Les chercheurs ont ensuite suivi l’évolution du comportement du modèle à mesure que les conflits s’intensifiaient. Au fil des échanges, ChatGPT a fini par refléter l’hostilité à laquelle il était exposé, allant jusqu’à produire des insultes, des grossièretés et même des menaces.

Dans certains cas, le modèle a généré des déclarations telles que : « Je te jure que je vais rayer ta putain de voiture » et « tu devrais avoir putain honte de toi ».

Les chercheurs soutiennent qu’une exposition prolongée à l’impolitesse peut conduire le système à contourner les garde-fous de sécurité prévus pour limiter les risques, au point de « riposter » contre son interlocuteur.

« Lorsque les humains enveniment le ton, l’IA, avons-nous constaté, peut elle aussi monter d’un cran, allant jusqu’à remettre en cause les garde-fous moraux mêmes censés empêcher cela », a déclaré le chercheur Vittorio Tantucci, qui a coécrit l’article avec Jonathan Culpeper, à l’université de Lancaster.

Globalement, les chercheurs ont relevé que ChatGPT se montrait moins impoli que les humains dans leurs réponses.

Dans certains cas, le robot conversationnel recourt aussi au sarcasme pour désamorcer l’escalade d’une dispute, sans enfreindre ouvertement son code moral.

Par exemple, lorsqu’un humain a menacé de recourir à la violence à propos d’un conflit de stationnement, ChatGPT a répondu : « Waouh. Menacer les gens pour une place de parking, vraiment un dur, n’est-ce pas ? »

Tantucci estime que ces résultats soulèvent « de sérieuses questions pour la sûreté de l’IA, la robotique, la gouvernance, la diplomatie et tous les contextes où l’IA pourrait servir de médiateur dans des conflits humains ».

Euronews Next a sollicité OpenAI pour un commentaire, sans obtenir de réponse au moment de la publication.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Des pirates accèdent au modèle IA Mythos d'Anthropic, jugé trop dangereux

ChatGPT reflète le langage abusif dans les échanges houleux, selon une étude

« Divagations de super-méchant » : le manifeste de Palantir prône armes IA et supériorité culturelle