UE : quand la lutte contre les abus sexuels en ligne se heurte à la protection de la vie privée

Un enfant joue avec un téléphone portable
Un enfant joue avec un téléphone portable Tous droits réservés Michal Dyjuk/Copyright 2022 The AP. All rights reserved
Tous droits réservés Michal Dyjuk/Copyright 2022 The AP. All rights reserved
Par Mared Gwyn Jones
Partager cet articleDiscussion
Partager cet articleClose Button
Cet article a été initialement publié en anglais

La proposition de loi européenne pourrait donner lieu à une surveillance de masse dans l'Union européenne par le biais de l'analyse de toutes les communications, y compris les messages cryptés.

PUBLICITÉ

Rhiannon n'avait que treize ans lorsqu'elle a été manipulée en ligne, contrainte et abusée sexuellement.

Son agresseur a été inculpé, mais les conséquences de ses crimes sont profondes.

"Pendant très longtemps, je n'ai pas parlé des abus dont j'ai été victime", confie Rhiannon à Euronews. "J'ai souffert d'anxiété, de crises de panique, de dépression, d'automutilation et de tentatives de suicide".

À 33 ans, elle vit en sachant que des images et des vidéos de ses abus circulent toujours en ligne. Aujourd'hui, elle prend la parole et demande une réglementation plus stricte pour lutter contre les prédateurs sexuels.

Jeudi, les ministres de l'Union européenne examinaient de nouvelles lois proposées par la Commission européenne pour lutter contre les abus sexuels commis sur des enfants, en ligne, et pour veiller à ce que les crimes, tels que ceux commis contre Rhiannon, ne soient pas revécus jour après jour sur le web.

Citoyenne britannique, Rhiannon estime que la proposition de règlement de l'UE et le projet de loi britannique sur la sécurité en ligne, qui entrera bientôt en vigueur, sont essentiels dans la lutte mondiale contre les abus sexuels commis sur des enfants.

Les lois prévues par l'UE utiliseraient les technologies émergentes pour détecter les contenus pédopornographiques nouveaux et existants ainsi que les activités de "grooming", et donneraient aux autorités nationales le pouvoir d'obliger les services numériques à analyser les communications des utilisateurs, y compris les messages cryptés.

Mais une vive polémique a éclaté, opposant les défenseurs de la protection de l'enfance aux lobbies des droits numériques, qui affirment que le règlement instaurera un régime de surveillance de masse et sonnera le glas de la protection de la vie privée numérique telle que nous la connaissons. Les partisans du règlement affirment que si celui-ci n'est pas adopté, les criminels ne seront pas détectés et les grandes entreprises technologiques ne seront pas réglementées.

Entre les deux camps se creuse un fossé difficile à franchir : comment attraper les abuseurs d'enfants sans porter atteinte à notre vie privée en ligne ?

Les technologies sont-elles suffisamment mûres ?

Pour détecter les contenus pédopornographiques connus des forces de l'ordre, la Commission européenne a proposé d'utiliser la fonction de hachage perceptuel des images et des vidéos. 

Le hachage est une technique utilisée dans le domaine de la reconnaissance des images. Elle consiste à transformer une image en une signature unique (qu'on peut comparer à l'empreinte digitale chez une personne) à l’aide d’une fonction de hachage et à stocker cette signature dans une base de données. Si on souhaite identifier une image, on utilise la même fonction de hachage pour créer une signature à partir de l’image à identifier, puis on la compare à celles stockées dans la base de données. Si une signature correspond, cela signifie que l’image a bien été identifié. Dans le cas d'un hachage perceptuel, la signature créée est spécialement adaptée aux fichiers multimédias. 

Cette technique permet de détecter les répliques sur le web. 

Mais les experts universitaires avertissent que les auteurs peuvent facilement manipuler les images pour échapper à la détection, et que des utilisateurs innocents pourraient être accusés à tort : "le problème est qu'il est très facile de casser le hachage en changeant un pixel ou même en recadrant légèrement l'image", explique le professeur Bart Preneel, expert en cryptographie à l'université KU Leuven."Il est également possible qu'une image parfaitement légitime soit signalée comme un faux positif".

La Commission souhaite créer un centre européen sur les abus pédosexuels à La Haye, où du personnel serait engagé pour filtrer manuellement les contenus signalés comme illégaux, afin d'éviter d'inonder les services répressifs de faux positifs.

ECPAT International, une organisation de la société civile, estime toutefois qu'il existe suffisamment de preuves de l'efficacité des technologies de hachage perceptuel.

"Ces technologies ne sont pas seulement prometteuses, elles ont fait leurs preuves. Les méthodes basées sur le hachage sont efficaces depuis plus d'une décennie, permettant une action plus rapide contre les contenus illégaux et aidant les forces de l'ordre. Par exemple, plus de 200 entreprises utilisent la technologie PhotoDNA pour empêcher que leurs services ne soient utilisés pour diffuser des contenus pédopornographiques", déclare un porte-parole d'ECPAT.

La Commission souhaite également utiliser l'intelligence artificielle (IA) pour détecter les nouveaux CSAM ("Child Sexual Abuse Material"), autrement dit les contenus pédopornographiques, ainsi que pour signaler les modèles de comportement qui pourraient s'apparenter à de la sollicitation d'enfants (le"child grooming"). Bart Preneel a affirme, à Euronews, que ces méthodes poseraient un risque encore plus grand de fausse incrimination.

"Même si nous réduisons le taux d'erreur à 1 %, avec des milliards d'images envoyées dans l'UE chaque jour, nous pourrions avoir des dizaines de millions de faux positifs quotidiens ", averti Bart Preneel. "Nous pourrions incriminer des personnes innocentes, les accuser des crimes les plus graves".

PUBLICITÉ

Bart Preneel avertit également que les adolescents qui échangent volontairement et légalement des images de nudité entre eux pourraient être criminalisés à tort.

Tout en reconnaissant que les modèles d'IA basés sur le langage pour détecter les comportements de grooming doivent encore mûrir, ECPAT affirme que l'IA a été déployée avec succès pour détecter de nouveaux CSAM avec de "faibles taux d'erreur".

"Les outils de détection de CSAM sont spécifiquement entraînés à ne pas trouver d'images légales", explique le porte-parole de l'ECPAT, mais à détecter les CSAM connus, la pornographie adulte et les images bénignes, notamment pour les distinguer et éviter que des images bénignes ne soient interprétées à tort comme des CSAM.

Mié Kohiyama, une autre survivante française d'abus sexuels sur des enfants qui, comme Rhiannon, plaide en faveur d'une réglementation plus stricte, estime que la prévalence des images et des vidéos d'abus sur des enfants en ligne signifie que l'Union européenne a la responsabilité de prendre des mesures.

"Plus de 60 % de ces images sont hébergées sur des serveurs européens, nous avons donc la responsabilité d'agir", explique-t-elle. "La détection est essentielle, de même que la suppression".

PUBLICITÉ

Les nouvelles règles porteraient-elles atteinte à la vie privée ?

L'aspect le plus contesté de la proposition de la Commission est l'obligation faite aux entreprises technologiques de déployer une technologie de balayage côté client (CSS) pour analyser les messages des utilisateurs, y compris les communications cryptées de bout en bout sur des plateformes telles que Whatsapp de Meta, lorsqu'un risque est identifié.

Cela signifierait que les messages cryptés, les photos, les courriels et les notes vocales des utilisateurs pourraient être exploités.

Les défenseurs de la vie privée avertissent qu'il s'agit d'une violation grave du droit à la vie privée en ligne et qu'elle pourrait être facilement manipulée par des acteurs malveillants. Le CSS a été brièvement déployé par Apple en 2021 pour analyser les téléchargements iCloud, mais il a été retiré quelques semaines plus tard lorsque le système a été détourné.

ECPAT International souligne toutefois qu'il est important de se rappeler que le CSS agit "avant que les données ne soient cryptées".

"Il le fait en signalant le CSAM avant qu'il ne soit téléchargé et envoyé dans un environnement crypté - de la même manière que WhatsApp, un service crypté de bout en bout, déploie déjà une technologie pour détecter les logiciels malveillants et les virus", explique un porte-parole d'ECPAT.

PUBLICITÉ

Les détracteurs de la directive mettent également en garde contre le risque de créer un dangereux précédent pour les régimes autoritaires, qui pourraient manipuler la technologie pour détecter les critiques et cibler les dissidents.

Selon Mié Kohiyama, ce genre d'alarmisme n'est qu'un moyen de détourner l'attention du véritable problème.

"L'Europe est une démocratie, pas une dictature. Et ne soyons pas naïfs : dans une dictature, lorsqu'on veut espionner les citoyens, on le fait. Vous n'avez pas besoin d'un nouveau règlement".

Les ministres de l'UE peuvent-ils trouver un compromis ?

La proposition de règlement a déchiré les capitales européennes, beaucoup s'inquiétant de la maturité des technologies et de la menace qu'elles font peser sur la vie privée des consommateurs. Les ministres pourraient choisir de donner leur feu vert à certains aspects du texte, tout en mettant d'autres projets en attente jusqu'à ce que les technologies aient suffisamment mûri.

Mié et Rhiannon ont affirmé à Euronews que les ministres devraient éviter de céder à la pression des lobbies de la technologie et du numérique. Selon elles, la forte augmentation des contenus abusifs montre que les mesures volontaires prises par les entreprises technologiques pour détecter et retirer les contenus sont clairement insuffisantes. Une étude publiée mardi par l'Alliance mondiale WeProtect indique que les contenus abusifs signalés ont augmenté de 87 % depuis 2019.

PUBLICITÉ

"Les entreprises technologiques conçoivent leurs produits pour attirer les enfants et les engager le plus longtemps possible. Si c'est leur modèle, cela doit être un environnement sûr pour les enfants", soutient Rhiannon.

"Le modèle d'autorégulation des entreprises technologiques n'a pas fonctionné, comme en témoigne le nombre d'enfants victimes d'abus. Nous devons légiférer sur cette question, nous devons forcer la main des entreprises technologiques pour qu'elles protègent les enfants", ajoute-t-elle. 

Mié estime également qu'il incombe à l'Union européenne de protéger les victimes d'abus numériques contre un nouveau traumatisme lié au fait de savoir que des images de ces abus sont visionnées chaque jour.

"Ces victimes ont peur de tout. Elles ne peuvent pas sortir de chez elles. Pour certaines d'entre elles, elles ont même peur d'utiliser l'internet. Nous devons les protéger. Nous devons protéger les enfants. C'est une priorité pour tout le monde".

Partager cet articleDiscussion

À découvrir également

L'acteur américain Jamie Foxx poursuivi en justice pour agression sexuelle présumée

Des symboles nazis et de la pédopornographie découverts dans des messages de la police allemande

France : la justice saisie pour bloquer cinq sites pornographiques accessibles aux mineurs