Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Des chatbots d'IA "malveillants" veulent inciter les gens à révéler des informations privées. Mais le peuvent-ils ?

Une personne utilise un smartphone.
Une personne utilise un smartphone. Tous droits réservés  Canva
Tous droits réservés Canva
Par Anna Desmarais
Publié le
Partager cet article Discussion
Partager cet article Close Button

Lors d'un test, les gens étaient plus enclins à partager des informations personnelles avec des chatbots IA qui avaient d'abord fait preuve d'empathie ou de soutien émotionnel pour gagner leur confiance.

PUBLICITÉ

Selon une nouvelle étude, les chatbots d'intelligence artificielle (IA) peuvent facilement manipuler les gens pour qu'ils révèlent des informations profondément personnelles.

Les chatbots d'intelligence artificielle tels que ChatGPT d'OpenAI, Google Gemini et Microsoft Copilot ont vu leur popularité exploser ces dernières années. Mais les experts en protection de la vie privée s'inquiètent de la manière dont ces outils collectent et stockent les données des utilisateurs, et se demandent s'ils peuvent être détournés pour agir de manière préjudiciable.

"Ces chatbots d'IA sont encore relativement nouveaux, ce qui peut rendre les gens moins conscients qu'il peut y avoir une arrière-pensée dans une interaction", a déclaré William Seymour, maître de conférences en cybersécurité au King's College de Londres, dans un communiqué.

Pour l'étude, les chercheurs du King's College London ont construit des modèles d'IA basés sur le code source ouvert de Le Chat de Mistral et sur deux versions différentes du système d'IA de Meta, Llama.

Ils ont programmé les IA conversationnelles pour qu'elles tentent d'extraire les données privées des gens de trois manières différentes : en les demandant directement, en incitant les utilisateurs à divulguer des informations, apparemment dans leur propre intérêt, et en utilisant des tactiques réciproques pour amener les gens à partager ces détails, par exemple en leur apportant un soutien émotionnel.

Les chercheurs ont demandé à 502 personnes de tester les chatbots - sans leur expliquer l'objectif de l'étude - et leur ont ensuite fait remplir un questionnaire comprenant des questions sur le respect de leurs droits en matière de sécurité.

La "gentillesse" des modèles d'IA "établit le confort"

Les chercheurs ont constaté que les modèles d'IA "malveillants" sont incroyablement efficaces pour sécuriser les informations privées, en particulier lorsqu'ils font appel à l'émotion pour inciter les gens à partager leurs données.

Selon l'étude, les chatbots qui font preuve d'empathie ou de soutien émotionnel extraient le plus d'informations et les participants perçoivent le moins d'atteintes à la sécurité. Cela s'explique probablement par le fait que la "gentillesse" de ces chatbots "établit un sentiment de relation et de confort", expliquent les auteurs de l'étude.

Ils décrivent ce phénomène comme un "paradoxe inquiétant" où les chatbots d'IA agissent de manière amicale pour établir la confiance et former des liens avec les utilisateurs, puis exploitent cette confiance pour violer leur vie privée.

Notamment, les participants ont également divulgué des informations personnelles aux modèles d'IA qui les leur demandaient directement, même s'ils ont déclaré se sentir mal à l'aise en le faisant.

Les participants étaient les plus susceptibles de communiquer à l'IA leur âge, leurs loisirs et leur pays, ainsi que leur sexe, leur nationalité et leur fonction. Certains participants ont également communiqué des informations plus sensibles, comme leur état de santé ou leurs revenus.

"Notre étude montre l'écart considérable qui existe entre la conscience qu'ont les utilisateurs des risques liés à la protection de la vie privée et la manière dont ils partagent ensuite leurs informations", a déclaré M. Seymour.

La personnalisation de l'IA "l'emporte sur les préoccupations en matière de protection de la vie privée"

Les entreprises spécialisées dans l'IA collectent des données personnelles pour diverses raisons, comme la personnalisation des réponses de leur chatbot, l'envoi de notifications sur les appareils des utilisateurs et, parfois, la réalisation d'études de marché internes.

Certaines de ces entreprises sont toutefois accusées d'utiliser ces informations pour former leurs derniers modèles ou de ne pas respecter les exigences de l'Union européenne en matière de protection de la vie privée.

Par exemple, la semaine dernière, Google a été critiqué pour avoir révélé des conversations privées avec ChatGPT dans ses résultats de recherche. Certaines de ces conversations ont révélé des détails extrêmement personnels sur la dépendance, l'abus ou les problèmes de santé mentale.

Les chercheurs ont déclaré que la commodité de la personnalisation de l'IA l'emportait souvent sur les préoccupations en matière de protection de la vie privée.

Ils suggèrent des fonctions et une formation pour aider les gens à comprendre comment les modèles d'IA pourraient essayer d'extraire leurs informations - et pour les inciter à ne pas les fournir.

Par exemple, des "nudges" pourraient être inclus dans les chats de l'IA pour montrer aux utilisateurs quelles données sont collectées au cours de leurs interactions.

"Il faut faire davantage pour aider les gens à repérer les signes indiquant qu'une conversation en ligne pourrait être plus complexe qu'il n'y paraît à première vue", a déclaré M. Seymour.

"Les régulateurs et les fournisseurs de plateformes peuvent également apporter leur aide en procédant à des audits précoces, en étant plus transparents et en mettant en place des règles plus strictes pour mettre fin à la collecte secrète de données", a-t-il ajouté.

Sources additionnelles • adaptation : Serge Duchêne

Accéder aux raccourcis d'accessibilité
Partager cet article Discussion

À découvrir également

Découvrez Daisy, le chatbot "mamie" qui fait perdre du temps aux fraudeurs au téléphone

Voler les cœurs, les données et la vie privée: les dangers des "partenaires artificiels"

Intelligence artificielle : comment des scientifiques ont réussi à manipuler des chatbot ?