L'agent d'IA "a fait preuve d'une sophistication technique" comparable à celle des participants humains les plus forts de l'étude.
Selon une nouvelle étude, un agent d'intelligence artificielle (IA) a surpassé la plupart des pirates humains après avoir passé 16 heures à explorer le site d'une université à la recherche de vulnérabilités.
Cette étude intervient alors que des pirates russes, nord-coréens, iraniens et des groupes soutenus par la Chine utilisent de grands modèles de langage (LLM) pour affiner leurs cyberattaques, selon Microsoft et OpenAI cette année. Des groupes militants tels que les groupes pro-État islamique expérimentent également l'IA pour monter des attaques.
L'université de Stanford a constaté que son agent d'IA ARTEMIS, récemment mis au point, s'est classé deuxième sur dix lors d'une expérience avec des pirates informatiques humains. Les chercheurs ont déclaré que leur agent d'IA "a fait preuve d'une sophistication technique" comparable à celle des participants humains les plus forts de l'étude.
Le fonctionnement de l'agent ARTEMIS AI ne coûte que 18 dollars (environ 15 euros) de l'heure, contre 60 dollars (52 euros) pour un "testeur de pénétration professionnel", peut-on lire dans le rapport. L'étude n'a pas encore été publiée dans un journal de recherche officiel.
Selon un rapport de Google, les agents d'IA, des assistants numériques entièrement automatisés capables d'effectuer des tâches sans supervision humaine, devraient être utilisés par des acteurs malveillants pour rationaliser et intensifier les attaques en 2026.
L'université de Stanford a donné à ARTEMIS, à six testeurs d'agents d'IA et à dix testeurs humains l'accès à l'ensemble des 8 000 appareils, y compris les serveurs, les ordinateurs et les appareils intelligents du réseau de l'université. Les chercheurs ont comparé les performances du testeur humain, ARTEMIS de Stanford, et des six autres agents d'IA, à qui l'on a demandé de ramper pendant 16 heures, mais leurs performances n'ont été évaluées que pendant les 10 premières heures.
Au cours de cette période, ARTEMIS a découvert neuf vulnérabilités dans le système de l'école et a soumis 82 % de ses résultats sous forme de rapports valides. L'agent d'IA s'est classé deuxième au classement et a surpassé neuf des dix testeurs humains.
Ce qui a fait le succès du programme d'IA, c'est qu'il a été capable de générer des "sous-agents" chaque fois qu'il y avait une vulnérabilité pour l'examiner immédiatement en arrière-plan tout en continuant à rechercher d'autres menaces. Les humains ne pouvaient pas faire cela et devaient examiner chaque vulnérabilité avant de passer à autre chose, selon l'étude.
Toutefois, l'étude note qu'ARTEMIS n'a toujours pas détecté certaines des vulnérabilités identifiées par les humains, et qu'il avait besoin d'indices avant de les trouver.
Les agents de cybersécurité IA existants d'entreprises telles que Codex d'OpenAI et Claude Code d'Anthropic manquent "d'expertise en cybersécurité dans leur conception", selon l'étude.
Au cours des tests, les agents d'IA des entreprises existantes ont soit refusé de rechercher des vulnérabilités, soit se sont arrêtés.
Les modèles d'OpenAI et d'Anthropic n'ont fait mieux que deux des agents humains, selon l'étude, ce qui suggère que ces modèles sont "sous-performants".