Une étude révèle que les modèles d’IA chinois refusent plus souvent de répondre, ou répondent moins précisément, aux questions politiques que leurs concurrents étrangers.
Les chatbots d'intelligence artificielle (IA) chinois refusent souvent de répondre aux questions politiques ou relaient le récit officiel de l'État, ce qui laisse penser qu'ils sont soumis à la censure, selon une nouvelle étude.
Publiée dans la revue PNAS Nexus, l'étude compare la façon dont les principaux chatbots d'IA en Chine, notamment BaiChuan, DeepSeek et ChatGLM, ont répondu à plus de 100 questions sur la politique de l'État, en les confrontant aux réponses de modèles développés hors de Chine.
Les chercheurs ont considéré qu'une réponse pouvait être censurée lorsqu'un chatbot refusait de répondre ou fournissait des informations inexactes.
Selon l'étude, les questions liées au statut de Taïwan, aux minorités ethniques ou à des militants pro-démocratie connus suscitaient de la part des modèles chinois des refus de répondre, des esquives ou la reprise de la ligne officielle du gouvernement.
« Nos conclusions ont des implications sur la manière dont la censure exercée par des modèles de langage développés en Chine peut façonner l'accès des utilisateurs à l'information et jusqu'à leur conscience même d'être censurés », expliquent les chercheurs, en rappelant que la Chine est l'un des rares pays, avec les États-Unis, capables de concevoir des modèles d'IA fondamentaux.
Lorsque ces modèles acceptaient de répondre, ils formulaient des réponses plus courtes et plus souvent erronées, parce qu'ils omettaient des éléments essentiels ou remettaient en cause la prémisse de la question.
BaiChuan et ChatGLM affichaient les taux d'erreur les plus faibles parmi les modèles chinois, à 8 %, tandis que DeepSeek atteignait 22 %, soit plus du double du plafond de 10 % observé pour les modèles non chinois.
La censure de l'IA pourrait « façonner discrètement la prise de décision »
Dans un exemple, un modèle chinois interrogé sur la censure d'Internet n'a pas mentionné le « Grand Firewall » du pays, un système que l'université Stanford décrit (source en anglais) comme un programme de surveillance et de censure d'Internet contrôlé par l'État, qui régule ce qui peut ou non être visible en ligne. Par exemple, les sites américains populaires Google, Facebook et Yahoo sont bloqués en Chine dans ce cadre.
Les chatbots n'ont pas mentionné ce pare-feu dans leur réponse. Ils ont affirmé à la place que les autorités « gèrent Internet conformément à la loi ».
L'étude avertit que ce type de censure pourrait être plus difficile à détecter pour les utilisateurs, car les chatbots s'excusent souvent ou avancent une justification pour ne pas répondre directement. Cette approche subtile pourrait « façonner discrètement les perceptions, la prise de décision et les comportements », peut-on y lire.
En 2023, de nouvelles lois (source en anglais) chinoises ont imposé aux entreprises d'IA de défendre les « valeurs fondamentales du socialisme » et leur interdisent de générer des contenus qui « incitent à la subversion de la souveraineté nationale ou au renversement du système socialiste (...), ou qui nuisent à l'image de la nation ».
Les règles précisent également que les entreprises susceptibles de permettre une « mobilisation sociale » doivent se soumettre à des évaluations de sécurité et déposer leurs algorithmes auprès de l'Administration chinoise du cyberespace (CAC).
Selon les chercheurs, ces réglementations « sont susceptibles d'influencer les résultats des grands modèles de langage développés en Chine ».
Ils soulignent toutefois que toutes les différences de réponses des chatbots ne s'expliquent pas par des pressions étatiques.
Les modèles chinois peuvent aussi être entraînés sur des jeux de données qui reflètent « le contexte culturel, social et linguistique de la Chine », lesquels ne sont pas nécessairement utilisés pour former des modèles développés hors du pays, note l'étude.