Une nouvelle étude a mis en évidence le meilleur modèle d'IA pour protéger vos données, et il vient d'Europe.
Selon une nouvelle analyse, Le Chat de Mistral AI est le modèle d'intelligence artificielle générative qui porte le moins atteinte à la confidentialité des données.
Incogni, un service de suppression des informations personnelles, a utilisé une série de 11 critères pour évaluer les différents risques pour la vie privée liés aux grands modèles de langage (LLM), notamment ChatGPT d'OpenAI, Meta AI, Gemini de Google, Copilot de Microsoft, Grok de xAI, Claude d'Anthropic, Pi AI d'Inflection AI et DeepSeek, basé en Chine.
Chaque plateforme a ensuite été notée de zéro (la plus respectueuse de la vie privée) à un (la moins respectueuse de la vie privée) sur la base de cette liste de critères. L'étude visait à déterminer la manière dont les modèles sont formés, leur transparence et la manière dont les données sont collectées et partagées.
Parmi les critères, l'étude s'est penchée sur l'ensemble des données utilisées par les modèles, sur la possibilité d'utiliser des invites générées par l'utilisateur pour la formation et sur les données qui peuvent être partagées avec des tiers, le cas échéant.
Qu'est-ce qui distingue Mistral AI ?
L'analyse a montré que le modèle "Le Chat" de l'entreprise française Mistral AI est la plateforme qui porte le moins atteinte à la vie privée parce qu'elle recueille des données personnelles "limitées" et qu'elle répond bien aux préoccupations en matière de protection de la vie privée propres à l'IA.
Le Chat est également l'un des rares chatbots assistants d'IA de l'étude à ne fournir que des invites générées par l'utilisateur à ses fournisseurs de services, tout comme Pi AI.
ChatGPT d'OpenAI arrive en deuxième position dans le classement général parce que l'entreprise a une politique de confidentialité "claire" qui explique aux utilisateurs où vont exactement leurs données. Toutefois, les chercheurs ont relevé certaines préoccupations concernant la manière dont les modèles sont formés et dont les données des utilisateurs "interagissent avec les offres de la plateforme".
xAI, la société du milliardaire Elon Musk qui exploite Grok, est arrivée en troisième position en raison de problèmes de transparence et de la quantité de données collectées.
Quant au modèle Claude d'Anthropic, ses performances sont similaires à celles de xAI, mais il suscite davantage de préoccupations quant à la manière dont les modèles interagissent avec les données des utilisateurs, selon l'étude.
En bas du classement, on trouve Meta AI, qui est l'entreprise la plus intrusive en matière de protection de la vie privée, suivie de Gemini et de Copilot.
Selon l'analyse, bon nombre des entreprises situées en bas du classement ne semblent pas permettre aux utilisateurs de refuser que les messages qu'ils ont générés soient utilisés pour entraîner davantage leurs modèles.