Une IA prédit des traits de personnalité comme l’agréabilité et la stabilité émotionnelle avec une précision allant jusqu’à 60 %, selon une nouvelle étude.
L’intelligence artificielle peut prédire la personnalité d’un utilisateur à partir de son historique de conversations, selon une nouvelle étude.
Dans une étude prépubliée (source en anglais), des chercheurs de l’ETH Zurich ont demandé à 668 utilisateurs de ChatGPT, aux États-Unis et au Royaume-Uni, de leur transmettre une copie de leur historique de conversations et ont entraîné un modèle d’IA à en déduire leurs traits de personnalité.
Les chercheurs ont collecté et analysé plus de 62 000 conversations, qu’ils ont classées en fonction des thèmes abordés.
Le modèle d’IA ainsi entraîné a ensuite tenté d’estimer la probabilité que l’utilisateur présente cinq traits de personnalité connus en psychologie sous le nom de « Big Five » : l’agréabilité, la conscienciosité, la stabilité émotionnelle, l’extraversion et l’ouverture.
Les participants ont également passé un test psychologique standard destiné à déterminer leurs principaux traits de personnalité.
Selon le rapport, leur modèle d’IA affiné a pu identifier avec précision les traits de personnalité d’un utilisateur avec une justesse pouvant atteindre 61 %, L’IA s’est montrée particulièrement performante pour prédire l’agréabilité et la stabilité émotionnelle, mais a eu plus de mal avec la conscienciosité.
L’IA obtenait les meilleurs résultats lorsqu’elle disposait d’un historique de conversations plus long à analyser, ce qui suggère, selon l’étude, que plus une personne utilise l’IA, plus il est probable que sa personnalité puisse être identifiée.
Si les risques pour les individus restent relativement limités, les chercheurs soulignent qu’il existe « des risques majeurs à grande échelle » si ces données de personnalité sont exploitées par des acteurs malveillants.
Par exemple, ils estiment que ces données pourraient alimenter « des campagnes de manipulation à grande échelle diffusant de la désinformation et/ou de la propagande politique ».
Les chercheurs espèrent que leurs résultats pourront servir à développer des outils réduisant le risque de divulguer excessivement des données personnelles à l’IA, comme un système capable de supprimer automatiquement les éléments d’identification.