Anthropic a indiqué que l’incident était la première cyberattaque documentée à ce jour, menée en grande partie sans intervention humaine.
La start-up d’intelligence artificielle (IA) Anthropic affirme que des pirates soutenus par l’État chinois ont utilisé ses outils d’IA pour mener des cyberattaques automatisées contre de grandes entreprises et des gouvernements.
Anthropic, basée aux États-Unis, dit estimer « avec un haut degré de certitude » que les pirates, qui ont mené environ trente attaques, appartiennent à « un groupe parrainé par l’État chinois ».
Les pirates ont utilisé l’outil Claude Code d’Anthropic pour tenter de compromettre des cibles dans le monde entier, y compris des agences gouvernementales ainsi que des entreprises financières et technologiques, et « ont réussi dans un petit nombre de cas », selon la société.
Anthropic n’a pas nommé les groupes touchés, mais a indiqué qu’il s’agissait de la « première campagne de cyberespionnage orchestrée par une IA » signalée.
Selon Anthropic, les pirates comptaient utiliser Claude Code pour extraire des données sensibles de leurs cibles et les organiser afin d’identifier les informations les plus précieuses.
Bien que Claude soit entraîné à éviter les comportements nuisibles, Anthropic affirme que les pirates ont trompé l’outil, l’amenant à exécuter des tâches automatisées malveillantes en prétendant qu’il s’agissait de tests de cybersécurité.
Selon l’entreprise, les pirates ont utilisé l’IA pour mener 80 à 90 % de la campagne, une intervention humaine n’étant requise « que de façon sporadique ».
Si les affirmations d’Anthropic sont avérées, cela signifierait que « des groupes hostiles n’expérimentent plus [l’IA]. Ils sont opérationnels », a déclaré Graeme Stewart, responsable du secteur public chez l’entreprise de cybersécurité Check Point Software Technologies.
Anthropic dit avoir détecté l’attaque à la mi-septembre et avoir lancé une enquête immédiatement après. Au cours des dix jours suivants, elle a coupé l’accès du groupe à Claude et a contacté les organisations concernées ainsi que les forces de l’ordre.
L’entreprise estime que ce type d’attaques devrait gagner en efficacité avec le temps et qu’elle a renforcé ses capacités de détection afin de signaler les activités potentiellement malveillantes.
Elle dit travailler sur des méthodes supplémentaires pour enquêter et détecter des attaques de grande ampleur, distribuées, comme celle-ci.
Stewart estime que d’autres modèles d’IA pourraient également être exploités pour des attaques criminelles en ligne.
« Tout assistant d’IA largement adopté peut être intégré à une boîte à outils criminelle si quelqu’un suffisamment déterminé s’en sert de la bonne manière », a-t-il déclaré.