Université d'Édimbourg : l’IA aide peu les pirates informatiques, que ce soit pour leurs arnaques ou pour concevoir des outils plus efficaces
Les cybercriminels peinent à intégrer l'intelligence artificielle (IA) à leurs activités, montre une nouvelle analyse.
Une nouvelle étude en prépublication de l'université d'Édimbourg a analysé plus de 100 millions de messages publiés sur des forums par des cybercriminels, en s'appuyant sur la base de données CrimeBB, qui aspire les données provenant de forums clandestins.
Les données ont été examinées à la fois manuellement et à l'aide d'un grand modèle de langage (LLM).
Si les cybercriminels manifestent de l'intérêt pour l'apprentissage de l'utilisation d'outils d'IA, cette technologie n'a pas profondément transformé leur façon de « travailler », conclut l'étude.
« De nombreux avis et discussions décrivent ces outils [d'IA] comme pas particulièrement utiles », peut-on lire dans l'étude.
Les chercheurs n'ont trouvé « aucun élément probant » montrant que les pirates aient réussi à utiliser l'IA pour améliorer leurs activités, que ce soit comme aide à l'apprentissage ou pour développer des outils plus efficaces.
Les assistants de programmation fondés sur l'IA s'avèrent surtout utiles pour les personnes déjà expérimentées, de sorte que les modèles d'IA proposant une aide au codage n'offrent pas de véritable « coup de pouce » lorsqu'il s'agit de pénétrer des appareils ou de contourner des dispositifs de sécurité, ajoute l'étude.
« Il faut d'abord apprendre les bases de la programmation par soi-même avant de pouvoir utiliser l'IA et en tirer VRAIMENT profit », écrit l'un des messages cités dans l'étude.
Le principal impact de l'IA sur les activités en ligne illégales jusqu'à présent concerne les tâches faciles à automatiser, comme la création de bots sur les réseaux sociaux, certaines escroqueries sentimentales et les fraudes liées au référencement (SEO), ou encore la création de faux sites web propulsés en tête des résultats de recherche pour générer des revenus publicitaires.
Les retours d'expérience laissent entendre que même les hackers les plus chevronnés recourent aux chatbots pour obtenir des réponses à des questions de programmation ou générer des « antisèches » destinées à les aider à coder.
L'IA effectivement utilisée relève de « produits grand public et légitimes », comme Claude d'Anthropic ou Codex d'OpenAI, plutôt que de modèles spécifiquement conçus pour la cybercriminalité, tels que WormGPT, élaborés par des pirates pour produire du code malveillant ou des courriels d'hameçonnage.
Une grande partie des messages analysés portent sur des cybercriminels en quête de techniques pour contourner les garde-fous de ces modèles grand public, mais ils semblent avoir beaucoup de mal à amener ces systèmes d'IA à désactiver leurs mécanismes de sécurité.
Les cybercriminels sont donc contraints de se rabattre sur d'anciens modèles d'IA open source de moindre qualité, plus faciles à « déverrouiller ». Ils s'avèrent généralement moins utiles et « exigent des ressources considérables », ont constaté les chercheurs.
Leur étude suggère que les garde-fous mis en place par les entreprises d'IA fonctionnent, du moins pour l'instant.