NewsletterNewslettersEventsÉvènementsPodcasts
Loader
Suivez-nous
PUBLICITÉ

Que faut-il attendre de l'entrée en vigueur de la loi européenne sur l'IA ?

Une représentation de l'intelligence artificielle
Une représentation de l'intelligence artificielle Tous droits réservés Canva
Tous droits réservés Canva
Par Anna Desmarais
Publié le Mis à jour
Partager cet articleDiscussion
Partager cet articleClose Button
Copier/coller le lien embed de la vidéo de l'article :Copy to clipboardLien copié
Cet article a été initialement publié en anglais

Euronews Next examine ce qui se passera dans les mois et les années à venir, alors que les entreprises se préparent à répondre aux exigences de la législation.

PUBLICITÉ

La loi européenne sur l'IA entre en vigueur ce jeudi et s'appliquera à tous les systèmes d'intelligence artificielle (IA) déjà en place ou en cours de développement.

Cette loi est largement considérée comme la première législation au monde qui tente de réglementer l'intelligence artificielle en fonction des risques qu'elle présente.

Les législateurs ont adopté la loi en mars, mais sa publication au Journal officiel de la Commission européenne en juillet a mis en branle le processus d'entrée en vigueur.

La date du 1er août marque le début d'une série de dates et d'échéances au cours des mois et des années à venir afin de préparer les entreprises qui utilisent l'IA à se familiariser avec la nouvelle législation et à s'y conformer.

La loi sur l'IA évalue les entreprises en fonction des risques

La loi européenne sur l'IA attribue ses règles à chaque entreprise utilisant des systèmes d'IA en fonction de quatre niveaux de risque, qui déterminent à leur tour les délais qui leur sont applicables.

Les quatre types de risque sont les suivants : aucun risque, risque minimal, risque élevé et systèmes d'IA interdits.

L'UE interdira totalement certaines pratiques à partir de février 2025. Il s'agit notamment de celles qui manipulent la prise de décision d'un utilisateur ou qui élargissent les bases de données de reconnaissance faciale par le biais du "scraping" sur internet.

D'autres systèmes d'IA jugés à haut risque, comme les IA qui collectent des données biométriques et les IA utilisées pour les infrastructures critiques ou les décisions en matière d'emploi, feront l'objet des réglementations les plus strictes.

Ces entreprises devront notamment présenter l'ensembles des données d'entraînement à l'IA et fournir la preuve d'une surveillance humaine.

Selon Thomas Regnier, porte-parole de la Commission européenne, environ 85 % des entreprises d'IA relèvent de la catégorie "risque minimal", qui ne requiert que très peu de réglementation.

Entre "trois à six mois" pour se conformer

Heather Dawe, responsable de l'IA au sein de la société de conseil UST, travaille déjà avec des clients internationaux pour mettre leur utilisation de l'IA en conformité avec la nouvelle loi.

Ses clients internationaux sont en accord avec les nouvelles exigences de la loi parce qu'ils reconnaissent la nécessité d'une réglementation de l'IA.

Selon elle, la mise en conformité avec la nouvelle loi pourrait prendre entre trois et six mois, en fonction de la taille de l'entreprise et de l'importance du rôle de l'IA dans son flux de travail.

"Il existe un ensemble de lignes directrices claires sur ce qu'il faut faire", estime Heather Dawe. "Toute complication est due au fait que le processus n'a pas été lancé assez rapidement."

Les entreprises pourraient envisager de mettre en place des conseils internes de gouvernance de l'IA, selon elle, avec des experts juridiques, techniques et de sécurité pour effectuer un audit complet des technologies utilisées et de la manière dont elles doivent adhérer à la nouvelle loi.

PUBLICITÉ

Si une entreprise n'est pas en conformité avec la loi sur l'IA dans les délais impartis, elle risque une amende pouvant aller jusqu'à 7 % de son chiffre d'affaires annuel global, a prévenu la Commission.

Comment la Commission européenne se prépare

L'Office de l'IA de la Commission supervisera le respect des règles relatives aux modèles d'IA à usage général.

Soixante membres du personnel de la Commission seront réorientés vers ce bureau et 80 autres candidats externes seront recrutés au cours de l'année prochaine, a indiqué Thomas Regnier.

Un conseil de l'IA composé de délégués de haut niveau des 27 États membres de l'UE a "jeté les bases" de la mise en œuvre de la loi lors de sa première réunion en juin, selon un communiqué de presse.

PUBLICITÉ

Le conseil travaillera avec l'office de l'IA pour s'assurer que l'application de la loi est harmonisée dans toute l'UE.

Plus de 700 entreprises ont annoncé qu'elles signeraient un pacte sur l'IA, dans lequel elles s'engagent à se conformer rapidement à la loi.

Les États membres de l'UE ont jusqu'au mois d'août prochain pour mettre en place des autorités nationales compétentes qui superviseront l'application des règles dans leur pays.

La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici à 2030.

PUBLICITÉ

"Ce que l'on entend partout, c'est que ce que fait l'UE est purement réglementaire (...) et que cela va bloquer l'innovation. Ce n'est pas vrai", a déclaré Thomas Regnier. "La législation n'est pas là pour empêcher les entreprises de lancer leurs systèmes, bien au contraire."

"Nous voulons qu'elles opèrent dans l'UE, mais nous voulons aussi protéger nos citoyens et nos entreprises."

D'autres révisions sont nécessaires

Risto Uuk, responsable de la recherche sur l'UE au Future of Life Institute, pense que la Commission européenne doit encore clarifier le niveau de risque de certaines technologies.

Il estime par exemple que l'utilisation d'un drone pour prendre des photos autour d'un système d'approvisionnement en eau qui a besoin de réparations "ne semble pas très risquée", bien qu'elle entre dans la catégorie à haut risque de la législation.

PUBLICITÉ

"Lorsque vous lisez le texte, il est assez général", analyse M. Uuk, qui pense qu'au fur et à mesure de la mise en œuvre, la Commission sera en mesure de fournir des informations plus spécifiques.

Il estime que la loi pourrait aller plus loin en imposant davantage de restrictions et d'amendes aux grandes entreprises technologiques qui exploitent l'IA générative (GenAI) dans l'UE.

Les grandes entreprises d'IA comme OpenAI et DeepMind sont considérées comme de l'"IA à usage général" et font partie de la catégorie à risque minimal.

Les entreprises qui développent l'IA à usage général doivent prouver qu'elles respectent les lois sur les droits d'auteur, publier les données d'entraînement et prouver qu'elles protègent la cybersécurité.

PUBLICITÉ

D'autres domaines à améliorer, comme les droits humains, selon European Digital Rights, un collectif d'ONG.

"Nous regrettons que la loi finale contienne plusieurs failles importantes pour la biométrie, la police et la sécurité nationale, et nous appelons les législateurs à combler ces lacunes", a déclaré un porte-parole dans un communiqué fourni à Euronews Next.

Partager cet articleDiscussion

À découvrir également

Pavel Dourov, PDG de Telegram, déclare que l'arrestation en France est "malavisée"

Quel impact sur les réseaux sociaux après les affaires concernant Telegram et X ?

Interdiction des téléphones en classe : les écoles européennes s'y mettent progressivement