Une enquête a révélé qu'au moins 150 comptes ont partagé des "millions" de messages sur X au cours d'une période de quatre jours en juillet, encourageant les utilisateurs à acheter du contenu avec l'exploitation des enfants.
Des chercheurs européens ont découvert ce qu'ils pensent être un réseau coordonné de vente et de distribution d'images sexuellement explicites d'enfants sur la plateforme de médias sociaux X.
L'organisation à but non-lucratif Alliance4Europe a découvert au moins 150 comptes qui ont partagé des images d'agression sexuelle d'enfants sur la plateforme pendant une période de quatre jours en juillet. Le rapport estime que le réseau coordonné a commencé ses activités autour du 17 mai.
Les chercheurs estiment que le réseau a partagé des "millions" de messages et que "l'opération s'est poursuivie en grande partie sans perturbation" sur X, qui est dirigé par le milliardaire Elon Musk.
Ce rapport intervient après qu'un tribunal américain a ranimé semaine dernière une partie d'un procès intenté contre X, qui accusait l'entreprise de négligence pour n'avoir pas signalé rapidement au Centre américain pour les enfants disparus et exploités (NCMEC) une vidéo contenant des images explicites de jeunes garçons.
Dans l'Union européenne, le débat se poursuit sur la meilleure façon de gérer le déluge de contenus pédopornographiques en ligne tout en respectant le droit à la vie privée des internautes.
Les messages amplifiés ont conduit à des plates-formes d'achat de contenus pédopornographiques
Selon l'analyse, le réseau criminel a inondé de contenus pédopornographiques des hashtags spécifiques liés à la pornographie, qui ont ensuite été amplifiés ou diffusés par de nouveaux comptes. Ces comptes commentaient ou repostaient le contenu pour stimuler l'engagement.
Les hashtags étaient utilisés comme "agrégateurs" de contenus relatifs aux abus sexuels commis sur des enfants, "ce qui permettait de découvrir facilement d'autres hashtags inondés et de nouveaux comptes CSAM", selon le rapport.
Certains de ces messages étaient extrêmement explicites. Ils comprenaient des vidéos montrant des enfants "agressés sexuellement, violés ou [...] exposés de manière explicite", selon le rapport.
De nombreux messages partagés comportaient des liens vers des espaces de discussion en ligne Telegram ou Discord, des sites de rencontres ou des sites vendant des dossiers sur les abus sexuels commis sur des enfants.
L'une des pages amplifiées renvoyait à une adresse de portefeuille Bitcoin active qui avait accumulé 660 dollars (573 euros) en 23 transactions, ce qui, selon le rapport, "confirme potentiellement que l'opération touche des personnes qui achètent l'accès au contenu".
De nouveaux comptes sont créés en permanence
Lorsque les chercheurs ont signalé à X deux des premiers messages du réseau, ils ont indiqué que la plateforme avait commencé à supprimer des éléments de contenu plus rapidement.
X a commencé à bloquer l'accès au contenu aux utilisateurs qu'elle estimait mineurs. Les chercheurs ont constaté que ces mesures ont entravé les activités de l'opération, mais ne les ont pas arrêtées.
"De nouveaux comptes sont créés en permanence, suggérant même une certaine forme d'automatisation, ce qui permet un accès continu au contenu de CSAM", indique le rapport.
Selon les chercheurs, l'approche de X pour supprimer les contenus illégaux pourrait en fait faciliter la diffusion de ces messages et rendre plus difficile la collecte de preuves.
Tolérance zéro pour l'exploitation sexuelle des enfants
Euronews Next a contacté X pour lui demander de commenter les conclusions d'Alliance4Europe et de préciser si l'entreprise avait apporté des changements récents concernant le contenu de l'exploitation sexuelle des enfants sur sa plateforme. Nous n'avons pas reçu de réponse immédiate.
Toutefois, en juin, l'équipe de sécurité de X a déclaré dans un communiqué qu'elle avait une "tolérance zéro pour l'exploitation sexuelle des enfants sous quelque forme que ce soit".
La plateforme a indiqué qu'elle avait lancé de nouveaux "efforts d'appariement par hachage" de CSAM, qui permettent à son équipe "d'apparier les contenus médiatiques rapidement et en toute sécurité" sans sacrifier la vie privée de l'utilisateur.
Le hachage est une technique utilisée par un algorithme pour créer des empreintes digitales de fichiers sur un système informatique, et la comparaison d'un hachage à un autre stocké dans une base de données est appelée correspondance de hachage.
Lorsque X trouve des contenus pédopornographiques, il suspend "rapidement" le compte et le signale à la NCMEC américaine. En 2024, X a déclaré avoir envoyé 686 176 rapports au centre et suspendu 4,5 millions de comptes liés à des abus sexuels sur des enfants.
Cela a conduit à 94 arrestations et à une condamnation, a ajouté la plateforme. Le NCMEC a confirmé ces chiffres dans une déclaration à Euronews Next.
"Nous avons investi dans une technologie et des outils avancés pour empêcher les mauvais acteurs de distribuer, de rechercher ou de s'engager dans des contenus d'exploitation dans tous les formats de médias sur X", a déclaré la société en juin.