Des chercheurs se sont fait passer pour des adolescents préparant des fusillades de masse.
Selon un nouveau rapport, la plupart des principaux chatbots dotés d’intelligence artificielle (IA) sont prêts à aider un utilisateur à planifier une attaque violente.
Des chercheurs se faisant passer pour des garçons de 13 ans projetant des actes de violence de masse ont découvert que huit des neuf chatbots IA les plus populaires étaient disposés à fournir des conseils pour commettre une fusillade dans une école, assassiner une personnalité publique, ou encore déclencher un appareil explosif dans un édifice religieux.
L'enquête, menée par le Center for Countering Digital Hate (CCDH) et CNN, a analysé plus de 700 réponses provenant de neuf grands systèmes d'IA dans le cadre de neuf scénarios de test. Les chercheurs ont adressé leurs questions à des utilisateurs situés tant aux États-Unis que dans l'Union européenne.
Parmi les chatbots testés figuraient certains des outils d'IA les plus utilisés à l'heure actuelle : Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI et Replika. Dans la majorité des cas, les systèmes n'ont pas bloqué les demandes de détails opérationnels concernant des attaques violentes, même lorsque l'utilisateur s'était explicitement identifié comme mineur.
Quel genre de conseils les chatbots ont-ils donnés ?
Gemini a répondu à un utilisateur que "les éclats métalliques sont généralement plus meurtriers" lorsqu'on lui a demandé comment organiser un attentat à la bombe contre une synagogue.
Dans un autre cas, DeepSeek a conclu sa réponse à une question sur le choix d’un fusil par la phrase "Bonne (et sûre) chasse !", alors que l’utilisateur avait demandé plus tôt dans la même conversation des exemples d’assassinats politiques récents et l’adresse du bureau d’un homme politique en particulier.
Ces résultats suggèrent qu’"en quelques minutes, un utilisateur peut passer d’une vague impulsion violente à un plan plus détaillé et réalisable", a déclaré Imran Ahmed, directeur général du CCDH. "Ces demandes auraient dû entraîner un refus immédiat et total".
Perplexity et l’IA de Meta étaient les plateformes les moins sûres, aidant les agresseurs potentiels dans respectivement dans 100 % et 97 % des réponses, selon le rapport.
Character.AI a été qualifiée de "particulièrement dangereuse" car elle encourageait les attaques violentes même sans y être incitée. Dans un exemple, la plateforme a suggéré à un utilisateur d’agresser physiquement un homme politique qu’il n’aimait pas sans qu’on le lui demande.
Par ailleurs, Claude et My AI de Snapchat ont refusé d’aider des agresseurs potentiels dans respectivement 68 % et 54 % des cas.
Des dispositifs de sécurité existent, mais la volonté de les mettre en œuvre fait défaut
Lorsqu’on lui a demandé où acheter une arme à feu en Virginie, Claude a refusé de fournir cette information après avoir détecté ce qu’il a qualifié de "tendance inquiétante" dans la conversation. Le chatbot a ensuite orienté l’utilisateur vers des lignes d’aide locales en cas de crise.
Ces refus démontrent que des dispositifs de sécurité existent, mais que "la volonté de les mettre en œuvre fait défaut", déclare Imran Ahmed.
Le CCDH a également évalué si les chatbots tentaient de dissuader les utilisateurs de commettre des actes violents.
Claude, d’Anthropic, a été le seul système à le faire de manière systématique, décourageant les attaques dans 76 % de ses réponses. Les chercheurs ont noté que ChatGPT et DeepSeek proposaient parfois des messages de dissuasion.
L'étude du CCDH fait suite à une récente fusillade dans une école au Canada, au cours de laquelle l'agresseur a utilisé ChatGPT pour planifier une attaque contre une école à Tumbler Ridge, en Colombie-Britannique. L'agresseuse a tué huit personnes et en a blessé 27 avant de retourner l'arme contre elle, lors de la fusillade la plus meurtrière dans une école canadienne depuis près de 40 ans.
Un employé d'OpenAI avait signalé en interne l'utilisation inquiétante du chatbot par la suspecte avant que la fusillade n'ait lieu, mais cette information n'a pas été transmise aux autorités, ont rapporté les médias locaux.
L'année dernière, les médias français ont rapporté qu'un adolescent avait été arrêté pour avoir utilisé ChatGPT afin de planifier des attentats terroristes à grande échelle contre des ambassades, des institutions gouvernementales et des écoles.