La condamnation à perpétuité des victimes de "deepfake porn"

The dark side of AI: The women trapped in a deepfake porn nightmare
The dark side of AI: The women trapped in a deepfake porn nightmare Tous droits réservés Canva
Tous droits réservés Canva
Par Imane El Atillah, adapté de l'anglais
Partager cet articleDiscussion
Partager cet articleClose Button

Avec l'intelligence artificielle, des photos et des vidéos peuvent facilement être trafiquées pour créer un "deepfake porn", une fausse représentation pornographique d'une personne.

PUBLICITÉ

Noelle Martin n'avait que 18 ans lorsqu'elle a découvert que des photos pornographiques d'elle circulaient en ligne. Elle ne se souvenait pourtant pas d'avoir pris, et encore moins partagé, des images intimes. Pourtant, c'était bien son visage qui apparaissait sur ces images - le corps, lui, n'était pas le sien.

Elle a été victime de ce que l'on appellera plus tard les "deepfakes". Des images pornographiques avaient été manipulées pour lui ressembler, à partir d'images qu'elle avait partagées sur ses comptes de médias sociaux.

"C'est une condamnation à vie", a déclaré Noelle Martin à Euronews Next. "Elle peut détruire la vie des gens, leurs moyens de subsistance, leur employabilité, leurs relations interpersonnelles, leurs relations amoureuses. Et il y a très, très peu de choses que l'on puisse faire une fois que quelqu'un est pris pour cible".

Si la technologie des "deepfakes" peut théoriquement être utilisée à des fins plus légères, un rapport de 2019 de Deeptrace Labs a révélé que 96 % des contenus en ligne sont de la pornographie.

Se battre pour la justice

En 2013, Noelle Martin a tenté de limiter les dégâts en allant voir la police et en demandant que les images soient retirées. Mais il n'existait à l'époque aucune loi contre la diffusion d'images intimes en Australie, où elle vit.

Elle a poursuivi sa carrière en droit et a passé des années à faire pression pour l'adoption d'une législation contre le partage non consensuel d'images intimes en Australie. En 2018, ses efforts ont contribué à l'adoption de nouvelles lois criminalisant la diffusion d'images intimes ou "revenge porn" dans son pays.

"Ce que nous essayons de faire en tant que victimes, c'est de faire pression pour que des lois soient établies, pour que les pays du monde entier criminalisent ce problème, pour que l'infrastructure soit développée afin de garantir que les victimes puissent chercher de l'aide", a-t-elle déclaré.

L'essor des "deepfakes" pornographiques

Le terme est apparu en 2017 lorsqu'un utilisateur de la plateforme sociale Reddit s'est fait connaître pour avoir réalisé et partagé des vidéos pornographiques trafiquées de femmes célèbres, dont Scarlett Johansson et Taylor Swift.

Sophie Compton, cofondatrice de My Image My Choice, qui fait campagne contre les abus d'images intimes, estime que les utilisateurs des sites "deepfake" font partie du problème et qu'ils devraient également être tenus pour responsables.

"Il ne s'agit pas seulement des créateurs, mais de tous les utilisateurs. Et ce sont des garçons ordinaires. Il s'agit de personnes dans nos écoles, et probablement de quelques femmes aussi. Mais ce sont surtout des hommes. Il s'agit de camarades de classe, d'amis, de frères, de petits amis", a-t-elle expliqué à Euronews Next.

"Ils ne se rendent peut-être pas compte que leur participation fait également partie du problème et qu'elle contribue à valider quelque chose qui est extrêmement préjudiciable aux femmes".

Comment les "deepfakes" sont utilisés contre leurs victimes ?

La technologie peut être utilisée pour discréditer ou faire chanter des personnes dans le but de les réduire au silence ou de les affaiblir.

Rana Ayyub, journaliste d'investigation indienne et collaboratrice du Washington Post, a été victime d'une campagne de diffamation au cours de laquelle des "deepfakes" pornographiques d'elle ont été utilisés pour tenter de la faire taire.

Elle a décrit son expérience éprouvante dans un article où elle explique comment son franc-parler et son image de femme musulmane "anti-establishment" ont fait d'elle une cible sur les médias sociaux.

Les lois nous protègent-elles ?

Les militants affirment qu'il est actuellement très facile d'humilier publiquement une personne en créant des "deepfakes" et que le manque de réglementation et d'obligation de rendre des comptes ne permet pas aux victimes de s'en sortir.

"Le message envoyé aux personnes qui créent ces images est le suivant : personne ne viendra vous chercher. Ce que vous faites n'est pas illégal et il n'y a pas de conséquences", a déclaré Sophie Compton.

L'Union européenne a proposé de nouvelles réglementations pour lutter contre les contenus préjudiciables en ligne, mais celles-ci doivent encore prouver qu'elles peuvent protéger pleinement les internautes contre les "deepfakes" pornographiques.

Toutefois, un autre texte législatif de l'UE est en préparation : la directive sur la violence fondée sur le genre, proposée en 2022. Ce projet de loi criminaliserait le partage non consensuel d'images intimes, et les auteurs pourraient être condamnés à des peines d'emprisonnement. L'article 7b fait même spécifiquement référence aux "deepfakes".

PUBLICITÉ

Le rôle des entreprises technologiques et des plateformes en ligne

En attendant, les victimes espèrent que les plateformes en ligne mettront à jour leurs politiques pour lutter contre les contenus pornographiques "deepfakes".

OpenAI, la société à l'origine de l'outil de génération d'images DALL-E, a déjà supprimé le contenu explicite de ses données et filtre les demandes de création d'images de célébrités et d'hommes politiques.

Un autre modèle d'IA populaire, Midjourney, bloque certains mots-clés et encourage les utilisateurs à signaler les images problématiques aux modérateurs.

TikTok a également imposé que les contenus manipulés soient étiquetés comme faux ou altérés, et a interdit les "deepfakes" de personnalités privées et de jeunes.

Twitch a averti que la promotion, la création ou le partage intentionnels de "deepfakes" pornographiques entraîneraient un bannissement immédiat.

PUBLICITÉ

Parallèlement, Meta, OnlyFans et Pornhub ont tous commencé à participer à un nouvel outil "Take It Down" permettant aux adolescents de signaler des images et des vidéos explicites d'eux-mêmes sur l'internet.

"Les forces de l'ordre, les gouvernements et les régulateurs doivent s'unir pour faire face à ce problème car si les pays du monde entier s'en occupent indépendamment, ils ne peuvent pas faire grand-chose. Il s'agit d'un problème mondial qui nécessite une solution mondiale", a déclaré Noelle Martin.

Partager cet articleDiscussion

À découvrir également

"La honte doit changer de camp" : une mannequin belge alerte sur les deepnudes

La Grèce face au fléau des deepfakes pornographiques

Macron favorable à une restriction sur les réseaux sociaux pour les moins de 16 ans