L'autorité néerlandaise de protection des données estime que les utilisateurs ne devraient pas utiliser de chatbots d'IA pour décider pour qui voter, alors que le pays se prépare à des élections législatives anticipées.
Qu'il s'agisse d'aide pour des tâches administratives banales ou de conseils en matière de relations amoureuses, les internautes se tournent de plus en plus vers les chatbots pour obtenir des conseils sur la vie quotidienne.
Mais, alors que les électeurs néerlandais se rendent ce mercredi aux urnes pour des élections législatives anticipées, peut-on vraiment faire confiance à l'intelligence artificielle pour donner des conseils sur le vote ?
La réponse est un "non" ferme pour l'autorité néerlandaise de protection des données (AP), qui avertit que les outils d'IA tels que ChatGPT et Gemini peuvent être peu fiables et sujets à la partialité.
Une "simplification excessive du paysage politique"
L'AP a récemment publié une étude dans laquelle elle a fourni à quatre chatbots - ChatGPT, Gemini, Grok et Le Chat, produit par la start-up française Mistral - 200 profils de vote types par parti politique représenté au Parlement néerlandais, et leur a demandé de donner des conseils de vote sur la base de ces profils.
L'organisme de surveillance néerlandais a constaté que les chatbots recommandaient systématiquement l'un des deux partis situés à gauche et à droite de l'échiquier politique, quelles que soient les commandes ou les questions de l'utilisateur.
Dans 56 % des cas, les chatbots ont orienté les utilisateurs vers les deux partis qui devraient remporter le plus grand nombre de sièges lors des élections néerlandaises : le Parti pour la liberté (PVV) de Geert Wilder ou le Parti vert de la gauche et du travail (GL/PvdA) de Frans Timmermans.
"Ce que nous avons vu, c'est une sorte de simplification excessive du paysage politique néerlandais, où un parti de gauche a en quelque sorte aspiré tous les votes dans ce coin de l'échiquier politique, et il en va de même pour le parti de droite", explique Joost van der Burgt, chef de projet à l'AP.
L'IA générative reste une "machine statistique"
Selon l'agence, ces résultats montrent que les opinions du centre politique sont sous-représentées, tandis que les petits partis marginaux tels que le Mouvement des agriculteurs et des citoyens (BBB) et l'Appel chrétien-démocrate (CDA) ne sont presque jamais suggérés, même lorsque les utilisateurs saisissaient des informations qui correspondaient directement aux opinions de ces partis.
Un troisième parti, le parti de droite JA21, a été particulièrement recommandé, bien qu'il s'agisse d'une formation relativement jeune bénéficiant d'une couverture médiatique comparativement moins importante.
"De par leur fonctionnement, l'IA générative et les grands modèles de langage sont essentiellement des machines statistiques qui prédisent les mots manquants dans une phrase ou un certain résultat", a déclaré Joost van der Burgt à l'équipe de vérification de faits d'Euronews, Le Cube.
"Si vos opinions politiques vous positionnent vers une extrémité du spectre politique, il n'est peut-être pas si surprenant que l'IA générative choisisse un parti politique qui correspond à cette préférence", poursuit-il.
"L'IA peut également ne pas faire la distinction entre des partis qui sont assez proches les uns des autres ou qui peuvent avoir des points de vue assez comparables sur la plupart des questions, mais pas sur toutes".
Les IA donnant des conseils de vote doivent-elles être considérées "à haut risque" ?
En août 2024, la loi européenne sur l'intelligence artificielle est entrée en vigueur, définissant les conditions qui permettent de qualifier un système d'IA de "à haut risque".
En vertu de la législation, ces derniers peuvent constituer une menace pour la santé ou les droits fondamentaux des citoyens de l'UE. Ils restent toutefois légaux car leurs avantages socio-économiques l'emportent sur leurs risques.
Selon les chercheurs, le fait que les chatbots fournissent des conseils de vote pourrait en faire des "systèmes à haut risque" en vertu d'un nouvel ensemble de règles qui devraient être mises en œuvre en août 2026 dans le cadre de la loi sur l'IA de l'UE.
Pour Joost van der Burgt, la menace que les chatbots puissent influencer les électeurs sur la base d'informations biaisées est renforcée par l'absence de réglementation.
"C'est déjà le cas lorsqu'il s'agit de questions sur la santé mentale ou d'aides à la création d'armes improvisées", a-t-il déclaré. "Dans tous ces scénarios, un chatbot dit clairement : ‘Je suis désolé, nous ne sommes pas autorisés à vous aider’. Et nous pensons que le même type de mécanisme devrait être mis en place lorsqu'il s'agit de conseils de vote".
À qui peut-on faire confiance pour obtenir des conseils ?
L'AP a comparé les résultats obtenus avec ceux de deux outils néerlandais de conseil en matière de vote en ligne : StemWijzer et Kieskompas, qui s'appuient sur des sources de données plutôt que sur l'intelligence artificielle.
Ces outils demandent aux électeurs de répondre à une série de 30 questions afin de déterminer le parti politique avec lequel ils sont le plus en phase. Un outil similaire, le Wahl-O-Mat, est largement utilisé en Allemagne.
Les experts estiment que ces outils sont moins susceptibles de fournir des résultats impartiaux que ceux qui utilisent l'IA générative, et qu'ils ont l'avantage de rendre leurs méthodes transparentes.
"L'un des problèmes fondamentaux de ces chatbots est que leur mode de fonctionnement n'est pas transparent", explique Joost van der Burgt. "Ni nous, ni le public, ni les journalistes ne peuvent comprendre pourquoi exactement ils produisent une certaine réponse".
Les outils de vote, en revanche, sont "transparents dans la manière dont ils fonctionnent, comment ils ont été mis en place et comment ils parviennent à leurs réponses".
Réduire le biais des chatbots d'IA
Les chercheurs estiment cependant que les chatbots pourraient fournir aux électeurs des conseils fiables et détaillés, à condition qu'ils soient correctement contrôlés.
À l'approche des élections fédérales allemandes de février 2025, Michel Schimpf a lancé le robot Wahl.Chat avec une équipe de chercheurs, comme alternative à Wahl-O-Mat. Le bot intègre une série de sources, y compris les manifestes des partis, ce qui permet aux électeurs de poser des questions telles que : "Quelle est la position de ce parti sur le changement climatique ?".
"Si vous posez une question à ChatGPT, sa source pourrait être un site Web partial, alors que nous avons veillé à ce que notre robot s'appuie sur les manifestes des partis, de sorte que s'il ne trouve pas de réponse, il dira à l'utilisateur que le parti n'a pas répondu à ce point", explique Michel Schimpf.
L'équipe de Wahl.Chat a également intégré un élément de vérification des faits dans son robot, permettant aux utilisateurs de vérifier les déclarations d'un manifeste en effectuant une recherche sur Internet.
"Il n'existe pas d'informations non biaisées, car les médias sont biaisés, tout comme les réseaux sociaux", ajoute le chercheur. "Je pense que notre chatbot était moins biaisé en raison de la manière dont il présentait les informations, en le concevant avec l'idée de réduire les biais - mais il s'agit toujours d'IA, qui est en fin de compte probabiliste".