Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Anthropic : des hackers chinois liés à l'État ont utilisé son IA pour une cyberattaque majeure

Le site internet d’Anthropic et son application mobile apparaissent sur cette photo d’archives du 5 juillet 2024.
Le site internet d’Anthropic et son application mobile apparaissent sur cette photo d’archive du 5 juillet 2024. Tous droits réservés  Richard Drew/AP Photo
Tous droits réservés Richard Drew/AP Photo
Par Roselyne Min
Publié le
Partager Discussion
Partager Close Button

Anthropic a indiqué que l’incident était la première cyberattaque documentée à ce jour, menée en grande partie sans intervention humaine.

La start-up d’intelligence artificielle (IA) Anthropic affirme que des pirates soutenus par l’État chinois ont utilisé ses outils d’IA pour mener des cyberattaques automatisées contre de grandes entreprises et des gouvernements.

Anthropic, basée aux États-Unis, dit estimer « avec un haut degré de certitude » que les pirates, qui ont mené environ trente attaques, appartiennent à « un groupe parrainé par l’État chinois ».

Les pirates ont utilisé l’outil Claude Code d’Anthropic pour tenter de compromettre des cibles dans le monde entier, y compris des agences gouvernementales ainsi que des entreprises financières et technologiques, et « ont réussi dans un petit nombre de cas », selon la société.

Anthropic n’a pas nommé les groupes touchés, mais a indiqué qu’il s’agissait de la « première campagne de cyberespionnage orchestrée par une IA » signalée.

Selon Anthropic, les pirates comptaient utiliser Claude Code pour extraire des données sensibles de leurs cibles et les organiser afin d’identifier les informations les plus précieuses.

Bien que Claude soit entraîné à éviter les comportements nuisibles, Anthropic affirme que les pirates ont trompé l’outil, l’amenant à exécuter des tâches automatisées malveillantes en prétendant qu’il s’agissait de tests de cybersécurité.

Selon l’entreprise, les pirates ont utilisé l’IA pour mener 80 à 90 % de la campagne, une intervention humaine n’étant requise « que de façon sporadique ».

Si les affirmations d’Anthropic sont avérées, cela signifierait que « des groupes hostiles n’expérimentent plus [l’IA]. Ils sont opérationnels », a déclaré Graeme Stewart, responsable du secteur public chez l’entreprise de cybersécurité Check Point Software Technologies.

Anthropic dit avoir détecté l’attaque à la mi-septembre et avoir lancé une enquête immédiatement après. Au cours des dix jours suivants, elle a coupé l’accès du groupe à Claude et a contacté les organisations concernées ainsi que les forces de l’ordre.

L’entreprise estime que ce type d’attaques devrait gagner en efficacité avec le temps et qu’elle a renforcé ses capacités de détection afin de signaler les activités potentiellement malveillantes.

Elle dit travailler sur des méthodes supplémentaires pour enquêter et détecter des attaques de grande ampleur, distribuées, comme celle-ci.

Stewart estime que d’autres modèles d’IA pourraient également être exploités pour des attaques criminelles en ligne.

« Tout assistant d’IA largement adopté peut être intégré à une boîte à outils criminelle si quelqu’un suffisamment déterminé s’en sert de la bonne manière », a-t-il déclaré.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Astronautes chinois de retour sur Terre après retard imputé à des dégâts dus à des débris spatiaux

La France veut muscler sa défense spatiale : ce qu'elle pourrait acheter en premier

Autorité irlandaise des données : « On n’en fait jamais assez » pour protéger les enfants en ligne