Au Danemark, les citoyens auront bientôt un droit d'auteur sur leur propre image afin de lutter contre les hypertrucages ou "deepfakes". Quels sont les autres pays qui disposent de lois régissant l'utilisation de fausses vidéos ou de vidéos générées par l'IA ?
Le Danemark va accorder aux personnes des droits d'auteur sur leur propre image afin de lutter contre les hypertrucages ou "deepfakes" générés, alors que les pays du monde entier sont confrontés à l'essor de l'intelligence artificielle (IA).
Dans un communiqué, le gouvernement danois a déclaré que le projet de loi, qui a été approuvé par tous les principaux partis, rendra illégal le partage d'hypertrucages et d'autres "imitations numériques" des caractéristiques d'une personne.
"Nous envoyons maintenant un signal sans équivoque à tous les citoyens : vous avez le droit d'avoir votre propre corps, votre propre voix et vos propres traits faciaux", a déclaré le ministre danois de la Culture, Jakob Engel-Schmidt, dans un communiqué.
Les hypertrucages sont des vidéos ou d'autres contenus en ligne produits par l'intelligence artificielle qui modifient une personne, souvent dans le but de diffuser de fausses informations ou de lui nuire.
"La technologie se développe rapidement et, à l'avenir, il sera encore plus difficile de distinguer la réalité de la fiction dans le monde numérique", a ajouté Jakob Engel-Schmidt, ajoutant que la nouvelle loi constituera une "protection contre la désinformation" et enverra également "un signal clair aux géants de la technologie".
Le Danemark n'est pas le seul pays à s'attaquer aux hypertrucages au moyen de nouvelles lois. Voici les autres pays européens qui prennent des mesures.
L'Union européenne
La loi européenne sur l'IA classe tout ce qui est créé par l'IA générative dans l'une des quatre catégories suivantes : risque minimal, risque limité, risque élevé et risque inacceptable. Les hypertrucages sont considérés comme présentant un "risque limité" et sont donc soumis à certaines règles de transparence.
Cela signifie qu'il n'y a pas d'interdiction pure et simple des hypertrucages, mais que les entreprises sont tenues d'étiqueter les contenus générés par l'IA sur leurs plateformes en apposant un filigrane sur les vidéos, et de divulguer les ensembles d'entraînement utilisés pour développer leurs modèles.
Si une entreprise d'IA est reconnue coupable d'avoir enfreint les règles de transparence, elle s'expose à une amende pouvant atteindre 15 millions d'euros ou 3 % de son chiffre d'affaires mondial de l'année écoulée. Cette amende peut atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial en cas de pratiques interdites.
Un autre article de la loi sur l'IA interdit également l'**IA manipulatrice, qui pourrait inclure des systèmes utilisant des techniques subliminales ou trompeuses pour "compromettre la prise de décision éclairée".
Certaines actions en justice se concentrent sur la pornographie et d'autres contenus à caractère sexuel. Par exemple, la directive de l'UE sur la violence à l'égard des femmes criminalise "la production, la manipulation ou l'altération non consensuelle... de matériel qui donne l'impression qu'une personne est engagée dans des activités sexuelles".
La directive inclut la production de ces hypertrucages ou de tout matériel créé à l'aide de l'intelligence artificielle. Elle ne précise pas les sanctions encourues par les personnes ou les entreprises qui l'enfreignent, laissant à chaque État membre le soin d'en décider.
Les États membres de l'UE ont jusqu'à juin 2027 pour mettre en œuvre la règle.
La loi française sur les espaces numériques
En 2024, la France a adopté une mise à jour de son code pénal afin d'interdire le partage de tout contenu visuel ou audio créé par l'IA, tel que les hypertrucages, sans le consentement de la personne représentée. Tout contenu partagé à nouveau doit être clairement indiqué comme étant généré par l'IA.
Les distributeurs de ces vidéos ou audios risquent jusqu'à un an d'emprisonnement et 15 000 euros d'amende ; la peine passe à deux ans d'emprisonnement et 45 000 euros d'amende si la vidéo est partagé par l'intermédiaire d'un "service en ligne".
Les modifications apportées au code pénal comprennent également une interdiction spécifique des hypertrucages pornographiques, même s'ils portent des marques claires indiquant qu'il s'agit de faux.
Toute personne surprise à distribuer ce type de contenu en France risque jusqu'à trois ans d'emprisonnement et 75 000 euros d'amende.
La loi donne également à l'Arcom, le régulateur français de l'audiovisuel, le pouvoir d'obliger les plateformes à retirer les contenus illicites et à améliorer leurs systèmes de signalement.
Condamnation à deux ans de prison au Royaume-Uni pour les "faux porno"
Le Royaume-Uni dispose de plusieurs lois relatives à la création des hypertrucages pornographiques, notamment les récentes modifications apportées au projet de loi sur l'utilisation et l'accès aux données.
La loi vise les "abuseurs odieux" qui créent de fausses images pour "la gratification sexuelle ou pour provoquer l'alarme, la détresse ou l'humiliation". Les contrevenants s'exposent à une "amende illimitée".
Un autre ajout récent est la possibilité d'une peine de prison de deux ans en vertu de la loi britannique sur les délits sexuels pour ceux qui créent des "hypertrucages" à caractère sexuel.
La loi britannique sur la sécurité en ligne rend illégal le partage ou la menace de partage d'images sexuelles non consensuelles sur les médias sociaux.
Cette loi obligera également les plateformes à "prendre des mesures pour retirer ce matériel de manière proactive" et empêcher qu'il n'apparaisse en premier lieu. En cas de violation de la loi, les entreprises pourraient se voir infliger de fortes amendes allant jusqu'à 10 % de leur chiffre d'affaires mondial par l'autorité britannique de régulation de l'internet, l'Ofcom.
Toutefois, Julia Hörnle, professeur à la faculté de droit de l'université Queen Mary, a déclaré que la loi sur la sécurité en ligne ne rendait pas directement illégale la création de fausses images, ce qui "laisse les victimes vulnérables, même si le contenu n'est jamais partagé publiquement".
Selon elle, le gouvernement britannique devrait également s'attaquer à la "disponibilité" des outils d'IA permettant de créer des hypertrucages en trouvant un moyen de criminaliser "le développement, la distribution et la promotion de ces outils".