Plusieurs grandes organisations internationales, dont Amnesty International et la Commission européenne, exigent l'interdiction des outils d'IA de dénudation.
Plus de 100 grandes organisations humanitaires et de protection de l'enfance appellent à des mesures urgentes contre les applications et outils de « nudification » par l’IA. La coalition rassemble Amnesty International, la Commission européenne, Interpol, Safe Online, Save the Children ainsi que d'autres spécialistes de la protection de l'enfance et défenseurs des droits humains.
Cette mobilisation intervient après la polémique autour de la nudification via Grok, où des utilisateurs ont demandé au chatbot d’IA Grok, développé par Elon Musk, d’enlever les vêtements sur des photographies numériques de femmes.
Tout est parti de la tendance « put her in a bikini », qui transformait les images pour montrer des femmes en bikini, mais a rapidement dégénéré en photos de plus en plus sexualisées.
Ces images non consenties et truquées ont ensuite été publiées publiquement sur la plateforme de médias sociaux X, où des millions de personnes ont pu les voir. À ce jour, on estime que Grok a généré environ trois millions de photos de nus non consentis.
Dans de nombreux cas, des images créées par des outils de nudification par IA ont été de plus en plus associées à du chantage, à la coercition et à des contenus d’abus sexuels sur enfants, la plupart des victimes étant des femmes et des enfants.
Une grave menace pour la sécurité des enfants et la dignité humaine
La coalition internationale souligne que ces applications et outils de nudification représentent une menace grave et inacceptable pour la sécurité des enfants et la dignité humaine.
« Les outils de nudification ont créé une menace sans précédent pour nos enfants. L’IA, une technologie censée étendre le potentiel humain, est utilisée comme une arme contre les enfants », a déclaré Marija Manojlovic, directrice de Safe Online, dans un communiqué.
« Nous minimisons ces atteintes en les qualifiant « en ligne », comme si elles étaient moins graves que ce qui se passe dans le monde physique, mais le traumatisme est bien réel », a‑t‑elle ajouté.
Bien qu’elles soient souvent présentées comme des applications « pour adultes », elles sont de plus en plus utilisées pour générer des images sexuelles illégales d’enfants, sans aucun consentement, sans barrières efficaces ni mécanismes de responsabilisation.
« Les entreprises technologiques ont la capacité de détecter et de bloquer les contenus nudifiés impliquant des enfants. La diffusion de contenus d’abus sexuels commis sur des enfants est illégale dans toutes les juridictions et les plateformes technologiques doivent être alignées sur les autres canaux de création et de diffusion », a déclaré Manojlovic.
« Il est franchement choquant que ces plateformes soient monétisées et qu’elles ne soient pas tenues de signaler les auteurs d’infractions ni de travailler avec leurs partenaires du secteur pour couper les flux de paiements. Ce sont des outils de protection utilisés dans le monde réel qui doivent être appliqués aux plateformes en ligne. »
La pression s’intensifie pour interdire les technologies de nudification par IA, leurs opposants affirmant qu’elles ne servent aucun objectif bénéfique.
C’est pourquoi la coalition demande que ces technologies soient bloquées et que les développeurs comme les plateformes soient tenus responsables.