La pression croissante concernant un éventuel mécanisme d'arrêt de l'horloge est problématique, selon eux.
"La réouverture de la loi sur l'IA ou le report de l'entrée en vigueur de ses règles compromettrait les principaux mécanismes de responsabilité". C'est l'avertissement lancé par plus de 50 organisations, dont Access Now, le Centre pour la démocratie et la technologie en Europe (CDT) et le Bureau européen des unions de consommateurs (BEUC), dans une lettre envoyée mercredi à la commissaire européenne chargée de la technologie, Henna Virkkunen.
Le document s'inquiète de la "pression croissante concernant un mécanisme potentiel d'arrêt de l'horloge pour suspendre ou retarder la mise en œuvre et l'application de la loi sur l'IA".
"L'agenda de simplification de l'UE ne devrait pas être utilisé pour conduire à la déréglementation, en particulier en l'absence de preuves crédibles que cela serait nécessaire ou efficace", indique la lettre, ajoutant que les règles de l'UE sont basées sur des valeurs et des principes fondamentaux, "les efforts de simplification devraient s'appuyer sur des protections juridiques durement gagnées, et non les démanteler".
Cette initiative fait suite aux appels lancés au début du mois par les PDG de plus de 40 entreprises européennes, dont ASML, Philips, Siemens et Mistral, pour que la Commission impose un "arrêt de deux ans" à la loi sur l'IA avant que les principales obligations n'entrent en vigueur en août prochain.
Ils ont déclaré que le délai était nécessaire "à la fois pour une mise en œuvre raisonnable par les entreprises et pour une plus grande simplification des nouvelles règles".
Délai de grâce
La loi sur l'IA, qui réglemente les systèmes d'intelligence artificielle en fonction du risque qu'ils représentent pour la société, est entrée en vigueur en août 2024, mais ne s'appliquera pleinement qu'en 2027.
Les entreprises ont demandé une pause dans les obligations relatives aux systèmes d'IA à haut risque, qui doivent entrer en vigueur en août 2026, et dans les obligations relatives aux modèles d'IA à usage général (GPAI), qui doivent entrer en vigueur en août 2025.
Entre-temps, le code de pratique sur les GPAI, un ensemble de règles volontaires visant à aider les fournisseurs de modèles d'IA, tels que ChatGPT et Gemini, à se conformer à la loi sur l'IA, n'a toujours pas été produit.
Le projet - rédigé par des experts nommés par la Commission - est maintenant attendu en juillet. Les entreprises affirment qu'elles n'ont pas assez de temps pour se conformer aux règles avant leur entrée en vigueur en août et ont demandé un délai de grâce.
Thomas Regnier, le porte-parole de la Commission sur le numérique, a déclaré à Euronews que ce qui est discuté dans le contexte du Conseil sur l'IA est le calendrier de mise en œuvre du code de pratique, la fin de l'année 2025 étant envisagée.
"Cela serait bien en avance sur les délais d'application de la loi sur l'IA - 2026 pour les nouveaux modèles et 2027 pour les modèles existants ", a-t-il ajouté.
Le processus a été critiqué depuis que les experts nommés par la Commission ont commencé à rédiger les règles en septembre 2024. Les géants de la technologie, les éditeurs et les détenteurs de droits craignent que ces règles ne violent la législation européenne sur le droit d'auteur et ne restreignent l'innovation.