Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Menace existentielle pour les sondages: l’IA imite presque les réponses humaines, selon une étude

Une étude récente montre que des outils d'IA peuvent tromper des systèmes en ligne en leur faisant croire qu'ils sont humains, biaisant les résultats des sondages en ligne.
De nouvelles recherches montrent que des outils d’IA peuvent tromper les systèmes en ligne en se faisant passer pour des humains, faussant les résultats de sondages. Tous droits réservés  Canva
Tous droits réservés Canva
Par Anca Ulea
Publié le
Partager Discussion
Partager Close Button

« Nous ne pouvons plus être sûrs que les réponses aux sondages viennent de personnes réelles », a déclaré l’auteur principal d’une nouvelle étude de l’université Dartmouth.

L’intelligence artificielle (IA) rend presque impossible la distinction entre réponses humaines et bots dans les sondages d’opinion en ligne, selon de nouvelles recherches.

Une étude de l’université Dartmouth, publiée lundi dans les Proceedings of the National Academy of Sciences, montre que les grands modèles de langage (LLM) peuvent perturber les enquêtes d’opinion à grande échelle.

« Ils peuvent imiter des profils humains, déjouer les méthodes de détection actuelles et être aisément programmés pour biaiser systématiquement les résultats des sondages en ligne », selon l’étude.

Les conclusions révèlent une « vulnérabilité critique » de notre infrastructure de données, posant une « menace existentielle potentielle » pour la recherche en ligne non supervisée, a déclaré l’auteur de l’étude, Sean Westwood, professeur associé de science politique à Dartmouth.

L’ingérence de l’IA dans les sondages pourrait ajouter une couche supplémentaire de complexité à des élections cruciales. Des groupes de surveillance en ligne ont déjà signalé des campagnes de désinformation alimentées par l’IA lors d’élections européennes, notamment récemment en Moldavie.

Piéger le système

Pour tester la vulnérabilité des logiciels de sondage en ligne, Westwood a conçu et construit un « répondant synthétique autonome », un simple outil d’IA qui fonctionne à partir d’un prompt de 500 mots.

Pour chaque enquête, l’outil adoptait un profil démographique basé sur des informations attribuées aléatoirement, notamment l’âge, le genre, l’origine ethnique, le niveau d’éducation, le revenu et l’État de résidence.

Avec ce profil, il simulait des temps de lecture réalistes, générait des mouvements de souris proches de ceux des humains et saisissait des réponses ouvertes touche par touche, avec des fautes de frappe et des corrections plausibles.

Lors de plus de 43 000 tests, l’outil a trompé 99,8 % des systèmes, les amenant à le prendre pour un humain. Il n’a commis aucune erreur aux tests de logique et a contourné les garde-fous traditionnels conçus pour détecter les réponses automatisées, comme reCAPTCHA.

« Ce ne sont pas des bots rudimentaires », a déclaré Westwood. « Ils réfléchissent à chaque question et se comportent comme de vraies personnes attentives, rendant les données totalement crédibles ».

Peut-on encore faire confiance aux sondages ?

L’étude a examiné la vulnérabilité pratique des sondages politiques, en prenant l’élection présidentielle américaine de 2024 comme exemple.

Westwood a constaté qu’il n’aurait suffi que de 10 à 52 réponses fictives générées par l’IA pour inverser le résultat prévu de l’élection dans sept sondages nationaux majeurs, durant la dernière semaine cruciale de campagne.

Chacun de ces répondants automatisés n’aurait coûté que 5 cents US (4 centimes d’euro) à déployer.

Lors des essais, les bots fonctionnaient même lorsqu’ils étaient programmés en russe, en mandarin ou en coréen, produisant des réponses en anglais impeccables. Cela signifie qu’ils pourraient être facilement exploités par des acteurs étrangers, dont certains disposent des ressources nécessaires pour concevoir des outils encore plus sophistiqués afin de déjouer la détection, prévient l’étude.

La recherche scientifique s’appuie aussi fortement sur des données d’enquête, des milliers d’études évaluées par les pairs étant publiées chaque année à partir de données issues de plateformes de collecte en ligne.

« Avec des données d’enquête contaminées par des bots, l’IA peut empoisonner l’ensemble de l’écosystème de la connaissance », a déclaré Westwood.

Son étude soutient que la communauté scientifique doit d’urgence mettre au point de nouvelles méthodes de collecte de données, imperméables aux manipulations par des outils d’IA avancés.

« La technologie existe pour vérifier la participation humaine réelle ; il nous faut simplement la volonté de l’appliquer », a déclaré Westwood.

« Si nous agissons maintenant, nous pouvons préserver à la fois l’intégrité des sondages et la responsabilité démocratique qu’ils garantissent ».

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Vérification d’âge : quels pays de l’UE limitent l’accès aux sites pour adultes ?

Anthropic : des pirates chinois liés à l’État auraient utilisé son IA dans une cyberattaque majeure

Autorité irlandaise des données : « On n’en fait jamais assez » pour protéger les enfants en ligne