Politique de l'UE. "Potentiellement désastreux pour l'innovation" : les critiques estiment que la loi européenne sur l'IA va trop loin

L'UE a adopté des règles provisoires en matière d'IA, mais le secteur technologique estime qu'elles étoufferaient la concurrence.
L'UE a adopté des règles provisoires en matière d'IA, mais le secteur technologique estime qu'elles étoufferaient la concurrence. Tous droits réservés Canva
Par Pascale Davies
Partager cet articleDiscussion
Partager cet articleClose Button
Cet article a été initialement publié en anglais

La loi européenne sur l'IA n'est pas encore finalisée et les élections européennes pourraient bouleverser la donne. A l'heure actuelle, l'industrie technologique craint que la loi n'étouffe la concurrence, mais les artistes et les auteurs se sont montrés plus accueillants.

PUBLICITÉ

Adopté ce mois-ci à l'issue d'une négociation marathon de 36 heures, l''AI Act de l'UE est salué comme un texte historique, mais les réactions du secteur technologique, des groupes de défense des droits et des responsables politiques du continent sont mitigées.

L'Union européenne a adopté vendredi dernier le premier ensemble de règles provisoires au monde pour réglementer l'intelligence artificielle (IA), mais les détails du texte législatif sont encore en cours de négociation.

Les règles classent les applications de l'IA en quatre niveaux de risque et imposent les règles les plus strictes sur l'IA à "haut risque" et l'IA "interdite".

L'un des points d'achoppement qui a conduit aux négociations était la manière dont les modèles de fondation, la technologie utilisée par le chatbot d'OpenAI, ChatGPT, seraient réglementés.

"Jamais une bonne idée"

La France et l'Allemagne ont mis en garde contre une réglementation excessive, car elles souhaitaient protéger leurs propres start-ups prometteuses dans ce domaine.

Le président Emmanuel Macron lors de la 18ème édition des Assises de l'économie de la mer, à Nantes, le mardi 28 novembre 2023.
Le président Emmanuel Macron lors de la 18ème édition des Assises de l'économie de la mer, à Nantes, le mardi 28 novembre 2023.Damien Meyer, Pool via AP

"On peut décider de réguler beaucoup plus vite et beaucoup plus fort que nos grands compétiteurs mais on régulera des choses qu'on ne produira plus ou qu'on n'inventera pas. Ce n'est jamais une bonne idée. Il faut donc qu'on soit toujours à la bonne vitesse et en tout cas au bon rythme", a déclaré le président français Emmanuel Macron lundi 11 décembre.

"La France est sans doute le premier pays en termes d'intelligence artificielle en Europe continentale, on est au coude à coude avec les Britanniques. Mais eux n'auront pas cette régulation sur les modèles fondationnels et surtout, on est tous très loin des Chinois et des Américains", ajoute-t-il, faisant référence à la start-up française d'IA Mistral.

L'UE prévoit de réglementer les modèles de fondation en veillant à ce que les développeurs fournissent une documentation comprenant les méthodes et les données d'entraînement. Ils seront également réglementés en donnant aux utilisateurs le droit de porter plainte et en leur interdisant toute discrimination.

Les entreprises qui ne se conforment pas à ces règles s'exposent à des amendes de 35 millions d'euros ou de 7 % du chiffre d'affaires mondial. Certains estiment que cela va trop loin.

Des conséquences potentiellement désastreuses

La Computer & Communications Industry Association considère que le texte s'éloigne largement de "l'approche raisonnable basée sur le risque" proposée par la Commission, qui donnait la priorité à l'innovation plutôt qu'à une réglementation trop prescriptive.

L'organisation précise que l'Acte impose des "obligations strictes" aux développeurs de technologies de pointe qui soutiennent de nombreux systèmes en aval, et que ces restrictions était donc susceptibles d'entraver l'innovation en Europe. Cela pourrait conduire à un exode des talents en IA, avertit-elle.

"Malheureusement, la rapidité semble avoir prévalu sur la qualité, ce qui pourrait avoir des conséquences désastreuses pour l'économie européenne. L'impact négatif pourrait être ressenti bien au-delà du seul secteur de l'IA", déclare Daniel Friedlaender, vice-président senior et directeur de CCIA Europe.

"La solution adoptée par l'Europe aujourd'hui revient à réglementer les mathématiques"

France Digitale, une organisation indépendante qui représente les start-ups et les investisseurs européens, déclare que les logiciels d'IA de la catégorie à "haut risque" devront obtenir un marquage CE, un processus long et coûteux, qui pourrait nuire aux start-ups.

Toutefois, le groupe salue le fait que les start-ups opérant dans des secteurs à "haut risque" peuvent s'opposer à cette classification en contestant les risques supposés de leur IA et en demandant une nouvelle évaluation.

En ce qui concerne l'IA générative et les modèles de fondation, France Digitale considère que la réglementation est "très stricte" et pourrait nuire aux entreprises car elles devront divulguer leurs modèles technologiques privés, que d'autres entreprises pourraient ensuite copier.

"Nous appelons à ne pas réglementer la technologie en tant que telle, mais à réglementer les utilisations de la technologie. La solution adoptée par l'Europe aujourd'hui revient à réglementer les mathématiques, ce qui n'a pas beaucoup de sens", déclare le groupe.

France Digitale a également averti que la Commission se réserve le droit d'ajouter des critères supplémentaires par le biais d'actes délégués, ce qui peut être risqué pour les start-ups qui "ont besoin de visibilité et de prévisibilité pour développer leurs modèles d'affaires".

"Nous ne pouvons pas changer les règles du jeu à tout moment", ajoute le groupe.

PUBLICITÉ

Adopter les règles du droit d'auteur

La plupart des modèles d'IA sont formés à partir de matériel trouvé en ligne, ce qui a donné lieu à une série de poursuites en matière de droits d'auteur intentées par des artistes et les sociétés qui les représentent contre les entreprises d'IA.

La loi prévoit des règles strictes en matière de droits d'auteur, notamment l'obligation de respecter la législation européenne en vigueur dans ce domaine. Les entreprises devront rendre public un résumé du contenu qu'elles utilisent pour former des modèles d'IA à usage général.

Cette exigence de transparence et cette politique d'adhésion aux règles actuelles de l'UE ont été saluées par le Groupement européen des sociétés d'auteurs (GESAC), qui représente 32 sociétés d'auteurs européennes et plus d'un million d'auteurs.

"Une mise en œuvre solide permettant aux propriétaires des oeuvres de défendre correctement leurs droits, en vertu de la législation de l'UE, est essentielle pour garantir que les principes convenus aient un impact réel dans la pratique", déclare Véronique Desbrosse, directrice générale de l'association.

"Les sociétés d'auteurs sont impatientes de contribuer à ce nouveau marché et de générer de la valeur pour les créateurs et les entreprises, tout en contribuant à l'innovation et à la création en Europe".

PUBLICITÉ

Cybersécurité et reconnaissance faciale

La loi européenne sur l'IA impose des restrictions strictes sur la technologie de reconnaissance faciale et d'autres signaux comportementaux, sauf exceptions liées à l'application de la loi.

Ces restrictions ont été globalement bien accueillies, tout comme les règles relatives à la protection des données.

Bien qu'il n'y ait pas de législation spécifique pour protéger les données, la loi est conçue pour fonctionner en parallèle avec les règles du GDPR (General Data Protection Regulation) de l'UE, le règlement de l'UE sur la protection des données.

La technologie de reconnaissance faciale sera strictement encadrée
La technologie de reconnaissance faciale sera strictement encadréeCanva

Cependant, Valmiki Mukherjee, cadre du secteur de la cybersécurité, a déclaré à Euronews Next que la loi pourrait être confrontée à des défis similaires à ceux du GDPR.

"Il pourrait s'avérer difficile d'appliquer cette loi aux systèmes d'IA grand public sans restreindre leur utilisation en les classifiant tous en "haut risque"", précise-t-il.

PUBLICITÉ

"Par ailleurs, il faudra probablement mettre en place un grand système de surveillance international pour contrôler l'IA dédiée à la surveillance et la sécurité. On ne sait pas très bien comment cela fonctionnera avec les normes de cybersécurité qui sont encore en cours d'élaboration".

Une technologie puissante à l'épreuve du temps

Alors que le projet de texte original est toujours en cours de finalisation - un processus qui, selon certains commentateurs, pourrait durer jusqu'en janvier 2024, voire au-delà - il existe une autre pression temporelle. Les nouvelles élections du Parlement européen auront lieu en juin, et elles pourraient changer la donne sur les points qui doivent encore faire l'objet d'un accord.

Les élections européennes de 2024 fixent une date limite pour la directive sur l'IA de l'UE.
Les élections européennes de 2024 fixent une date limite pour la directive sur l'IA de l'UE.Canva

"Il ne reste pas assez de temps avant les élections du Parlement pour faire passer cette directive sur l'IA par le processus législatif ; celui-ci devra donc être repris par le nouveau Parlement et la nouvelle Commission qu'il nommera", déclare Benjamin Docquir, responsable des technologies de l'information et des données au sein du bureau juridique international Osborne Clarke.

Le nouveau Parlement européen pourrait également avoir à se prononcer sur la législation relative à l'IA sur le lieu de travail.

Un autre facteur à prendre en compte sera la réglementation des logiciels d'IA en open-source, qui permettent de copier et de réutiliser librement le code informatique, ce qui autorise n'importe qui à construire son propre chatbot. OpenAI et Google ont averti que les logiciels libres peuvent être dangereux, car la technologie peut être utilisée pour diffuser de la désinformation.

PUBLICITÉ

Étant donné que la technologie de l'IA se développe rapidement et que la loi européenne sur l'IA ne sera probablement pas appliquée par les membres de l'UE avant deux ans, la réglementation pourrait déjà être trop ancienne malgré les efforts déployés pour la rendre flexible.

"En ce qui concerne ce qui pourrait changer dans la loi sur l'IA, les législateurs se sont efforcés de la rendre flexible, mais l'émergence de l'IA générative a démontré la difficulté d'assurer la pérennité d'une technologie aussi puissante", ajoute Benjamin Docquir.

Partager cet articleDiscussion

À découvrir également

Ces chaussures futuristes imprimées en 3D s'adaptent à vos pieds

Feriez-vous confiance à un robot pour gérer vos finances ?

Jimmy Wales, le fondateur de Wikipedia, se dit déçu par ChatGPT