Lors d'une démonstration, une start-up norvégienne Strise a montré un portefeuille d'entreprises avec les avertissements quant à une éventuelle propriété d'oligarques russes.
Les banques et les institutions financières sont confrontées à une vague croissante de fraude et de blanchiment d'argent, ainsi qu'à une pression de plus en plus forte pour se conformer à des réglementations financières de plus en plus strictes.
Malgré une augmentation des dépenses allant jusqu'à 10 % par an dans certains marchés avancés entre 2015 et 2022, l'industrie financière ne détecte qu'environ 2 % des flux mondiaux de criminalité financière, selon Interpol.
Aujourd'hui, certains pensent que l'intelligence artificielle (IA) pourrait contribuer à alléger le fardeau.
En Norvège, la start-up fintech Strise a créé une plateforme d'IA qui analyse les registres publics et les rapports des médias pour signaler en temps réel les risques potentiels de blanchiment d'argent.
L'agent d'IA est conçu pour contrôler les nouvelles demandes d'ouverture de comptes auprès d'institutions financières soumises à la législation européenne contre le blanchiment d'argent, telles que les banques, les compagnies d'assurance et les services de paiement.
Remplacer un processus long et fastidieux
Si vous avez déjà ouvert un compte bancaire en ligne, il vous a été demandé de fournir des informations telles que votre adresse et votre profession et de les mettre à jour une fois par an. Cela fait partie du processus de connaissance du client (KYC), une obligation légale destinée à vérifier l'identité des clients et l'origine de leur argent.
Traditionnellement, les contrôles KYC reposent sur des équipes d'analystes de la conformité qui passent au crible les bases de données, les déclarations de sociétés et les rapports d'actualité pour confirmer la propriété, retracer les connexions et repérer les risques potentiels.
Ces contrôles sont censés empêcher les criminels d'utiliser des banques légitimes pour transférer de l'argent sale.
Mais elles sont lentes et coûteuses.
"Aujourd'hui, l'IA peut récupérer des informations et les assembler d'une toute nouvelle manière ", a déclaré Marit Rødevand, cofondatrice et directrice générale de Strise, à Euronews Next.
"Si vous pouvez repérer une entreprise douteuse au moment de son intégration, vous pouvez l'empêcher d'obtenir un compte bancaire, d'être intégrée à des solutions financières", a-t-elle ajouté.
Le système d'IA de Strise identifie automatiquement les signes d'alerte tels que les liens avec des personnes sanctionnées, des juridictions à haut risque ou des personnalités politiquement connectées qui peuvent être vulnérables à la corruption.
Par exemple, les analystes qui utilisent ce système peuvent voir des signes d'alerte sur les personnes figurant sur les listes de sanctions et les hommes politiques qui peuvent être "très influents" ou "plus sensibles à la corruption" et au "blanchiment d'argent", selon Robin Lycka, architecte de solutions chez Strise.
Les oligarques russes
Strise affirme que les institutions financières qui utilisent sa plateforme ont été en mesure d'identifier et de refuser plus efficacement les entreprises à haut risque, multipliant ainsi par dix leur capacité de traitement des dossiers sans avoir besoin d'augmenter leur personnel.
Lors d'une démonstration, Strise a montré un portefeuille d'entreprises dans lequel des signaux d'alerte clignotaient à propos d'une éventuelle propriété d'oligarques russes.
"Une fois que vous disposez de ces informations, vous pouvez choisir, au niveau du portefeuille, de compléter ou non l'intégration avec la classification de risque calculée", affirme Robin Lycka.
Dans un autre portefeuille, le système a signalé une société basée en Estonie associée à deux individus qui avaient été condamnés pour l'une des plus grandes fraudes aux crypto-monnaies de l'histoire, d'un montant de 560 millions de dollars (480 euros).
La plateforme peut également générer des rapports et des résumés de ses conclusions, en utilisant de grands modèles de langage (LLM) pour compiler des récits de risque pour les dépôts réglementaires, une tâche qui nécessitait auparavant des heures de rédaction manuelle.
"Ce qui me donne de l'espoir, c'est que nous pouvons vraiment avoir un impact, en nous éloignant de la simple conformité à des cases à cocher et en libérant des ressources pour aider à stopper la criminalité financière et à prévenir la fraude", estime Marit Rødevand.
"Il y a tant de cas dans les médias et d'histoires personnelles de vies dévastées par ces types de crimes. Je veux vraiment que nous contribuions à changer cela", relève-t-elle.
L'Union européenne met actuellement la dernière main à une autorité de lutte contre le blanchiment d'argent (AMLA) à Francfort et à une directive européenne qui devrait entrer en vigueur en 2027 "pour lutter contre le blanchiment d'argent et le financement du terrorisme".
Stanislaw Tosza, professeur associé en conformité et application de la loi à l'Université du Luxembourg, a déclaré à Euronews Next que la réforme apportait un "nouveau domaine de responsabilité".
"Le champ d'application toujours plus large des obligations de lutte contre le blanchiment d'argent (AML), combiné au risque croissant de sanctions en cas de non-conformité, fait de l'IA un outil attrayant pour les entités obligées qui cherchent à gérer ces responsabilités croissantes", affirme-t-il.
Il a ajouté qu'en vertu de la législation européenne sur la protection des données, un certain degré de supervision humaine est nécessaire "lorsque des systèmes automatisés prennent des décisions qui affectent les personnes de manière significative".
Strise affirme que ses clients ont pu réduire les faux positifs, c'est-à-dire le fait qu'un système signale un élément comme suspect alors qu'il est tout à fait légitime, de "30 à 40 % grâce à la surveillance automatisée des clients".
"Cela signifie beaucoup moins de travail manuel pour les analystes qui, autrement, passeraient des heures à examiner des alertes de risque inutiles au lieu de détecter les risques réels et de lutter contre la criminalité financière", a déclaré Lars Lunde Birkeland, directeur général de Strise, à Euronews Next dans un communiqué.
Mais les experts avertissent que si l'automatisation peut réduire le nombre de faux positifs, elle peut aussi rendre les erreurs plus difficiles à détecter ou à contester.
"L'intégration de l'IA dans ces processus décisionnels réduit encore la transparence : il peut devenir encore plus difficile pour les personnes concernées de comprendre la base de ces évaluations ou de les contester efficacement", met en garde Stanislaw Tosza.