La nouvelle loi européenne sur l'IA ne fait pas l'unanimité auprès des experts

Le logo d'OpenAI sur un téléphone portable, devant une image générée par le modèle texte-image Dall-E de ChatGPT affichée sur un écran d'ordinateur.
Le logo d'OpenAI sur un téléphone portable, devant une image générée par le modèle texte-image Dall-E de ChatGPT affichée sur un écran d'ordinateur. Tous droits réservés Michael Dwyer/AP Photo
Tous droits réservés Michael Dwyer/AP Photo
Par Pascale Davies
Partager cet articleDiscussion
Partager cet articleClose Button
Cet article a été initialement publié en anglais

En première mondiale, l'UE a adopté une législation visant à réglementer l'intelligence artificielle, mais si certains estiment qu'elle ne va pas assez loin, d'autres affirment qu'elle pourrait nuire aux entreprises en leur imposant des "contraintes supplémentaires".

PUBLICITÉ

Mercredi dernier, le Parlement européen a approuvé la loi sur l'intelligence artificielle, qui adopte une approche fondée sur les risques pour garantir que les programmes d'IA mis à disposition du public respectent la législation en vigueur.

Un jour plus tard, la Commission européenne a demandé à Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube et X, dans le cadre d'une législation distincte, d'expliquer en détail comment ils limitaient les risques de l'IA générative.

Si l'UE s'inquiète surtout des "hallucinations" de l'IA (lorsque les modèles font des erreurs et inventent des choses), de la diffusion virale de deepfakes et de la manipulation automatisée de l'IA qui pourrait induire les électeurs en erreur lors des élections, la communauté technologique a ses propres griefs à l'égard de la législation, tandis que certains chercheurs affirment qu'elle ne va pas assez loin.

Monopoles technologiques

Si Bruxelles a le mérite d'être la première juridiction au monde à adopter une réglementation prenant en compte les nombreux risques liés à l'IA, l'accord final pose plusieurs problèmes, avance Max von Thun, directeur pour l'Europe de l'Open Markets Institute.

Il comporte "des lacunes importantes pour les autorités publiques" et "une réglementation relativement faible des plus grands modèles de fondation- ceux qui sont susceptibles de générer le plus de problèmes" - déclare-t-il à Euronews Next.

Les modèles de fondation sont des modèles d'apprentissage automatique qui sont formés à partir de données et peuvent être utilisés pour effectuer une série de tâches, telles que la rédaction d'un poème, par exemple. ChatGPT est un modèle de fondation.

Toutefois, la plus grande préoccupation de Max von Thun concerne les monopoles technologiques.

"La loi sur l'IA est incapable de répondre à la principale menace que représente actuellement l'IA : son rôle dans l'augmentation et l'enracinement du pouvoir extrême que quelques entreprises technologiques dominantes détiennent déjà dans nos vies personnelles, nos économies et nos démocraties", explique-t-il.

"L'UE devrait comprendre que l'ampleur des risques posés par l'IA est inextricablement liée à l'ampleur et à la puissance des entreprises dominantes qui développent et déploient ces technologies. Il n'est pas possible de traiter le premier problème tant que le second n'est pas résolu", ajoute Max von Thun.

La menace de monopoles dans le domaine de l'IA a été mise en évidence le mois dernier, suite à l'annonce que la start-up française Mistral AI allait s'associer à Microsoft, et ce alors que la France avait fait pression pour que des entreprises à code source ouvert comme Mistral bénéficient de concessions dans le cadre de la loi sur l'IA.

Arthur Mensch, cofondateur et PDG de Mistral AI.
Arthur Mensch, cofondateur et PDG de Mistral AI.Toby Melville/Pool Photo via AP, File

Un moment historique

Toutefois, plusieurs start-up se sont félicitées de la clarté apportée par le nouveau règlement.

"L'adoption finale par le Parlement européen de la loi européenne sur l'IA est à la fois un moment historique et un soulagement", déclare Alex Combessie, cofondateur et PDG de l'entreprise française d'IA open source Giskard.

"Bien que la loi impose des contraintes et des règles supplémentaires aux développeurs de systèmes d'IA à haut risque et de modèles de fondation, considérés comme des 'risques systémiques', nous sommes convaincus que ces contrôles et équilibres peuvent être efficacement mis en œuvre", explique-t-il à Euronews Next.

"Ce moment historique ouvre la voie à un avenir où l'IA sera exploitée de manière responsable, favorisant la confiance et garantissant la sécurité de tous", ajoute-t-il.

La législation classe les risques posés par les modèles de fondation, qui dépendent de la puissance de calcul utilisée pour les entraîner. Les programmes d'IA qui dépassent le seuil de puissance de calcul sont réglementés de manière plus stricte.

La classification est considérée comme un point de départ et, comme d'autres définitions, elle pourra être révisée par la Commission à l'avenir.

Bien public

Mais tout le monde n'est pas d'accord avec cette catégorisation.

"De mon point de vue, les systèmes d'IA utilisés dans le secteur de l'information devraient être classés comme étant à haut risque, ce qui les obligerait à adhérer à des règles plus strictes, ce qui n'est pas explicitement le cas dans l'a régulation sur l'IA adopté par l'UE", avance Katharina Zügel, responsable politique au Forum sur l'information et la démocratie.

PUBLICITÉ

"Les entreprises privées ne peuvent pas être les seules à conduire notre avenir commun. L'IA doit contribuer au bien public", ajoute-t-elle.

Mais d'autres affirment que les entreprises doivent également avoir leur mot à dire et être en mesure de travailler avec l'UE.

"Il est essentiel que l'UE exploite le dynamisme du secteur privé, qui sera la force motrice de l'avenir de l'IA. C'est impératif pour rendre l'Europe plus compétitive et plus attrayante pour les investisseurs", déclare Julie Linn Teigland, associée directrice d'EY pour l'Europe, le Moyen-Orient, l'Inde et l'Afrique (EMEIA).

Toutefois, elle a déclaré que les entreprises dans l'UE et au-delà doivent être proactives et se préparer à l'entrée en vigueur de la loi, ce qui signifie "prendre des mesures pour s'assurer qu'elles disposent d'un inventaire à jour des systèmes d'IA qu'elles développent ou déploient, et déterminer leur position dans la classification de l'UE pour comprendre leurs responsabilités légales".

Une décision à double tranchant

Pour les start-up et les petites et moyennes entreprises, cela pourrait signifier beaucoup plus de travail.

PUBLICITÉ

"Cette décision est à double tranchant", considère Marianne Tordeux Bitker, responsable des affaires publiques à France Digitale.

"Si la loi sur l'IA répond à un enjeu majeur en termes de transparence et d'éthique, elle crée néanmoins des obligations substantielles pour toutes les entreprises utilisant ou développant de l'intelligence artificielle, malgré quelques aménagements prévus pour les start-up et les PME".

"Nous craignons que le texte crée des barrières réglementaires supplémentaires qui profiteront à la concurrence américaine et chinoise, et réduiront nos chances de voir émerger des champions européens de l'IA", ajoute-t-elle.

Le logo d'OpenAI sur un téléphone portable, devant une image générée par le modèle texte-image Dall-E de ChatGPT affichée sur un écran d'ordinateur.
Le logo d'OpenAI sur un téléphone portable, devant une image générée par le modèle texte-image Dall-E de ChatGPT affichée sur un écran d'ordinateur.AP Photo/Michael Dwyer, File

Une mise en œuvre efficace

Même si la loi sur l'IA a été adoptée, sa mise en œuvre constitue le prochain défi.

"L'accent est désormais mis sur la mise en œuvre et l'application effectives de la loi. Cela nécessite également une attention renouvelée à la législation complémentaire", explique à Euronews Next Risto Uuk, responsable de la recherche sur l'UE au Future of Life Institute, une organisation à but non lucratif.

PUBLICITÉ

Cette législation complémentaire comprend la directive sur la responsabilité en matière d'IA, destinée à faciliter les actions en justice pour les dommages causés par les produits et services basés sur l'IA, et l'Office de l'IA de l'UE, qui vise à rationaliser l'application des règles.

"L'Office de l'IA devra disposer des ressources nécessaires pour accomplir les tâches qui lui ont été confiées, et il faudra s'assurer que les codes de pratiques pour l'IA à usage général soient bien rédigés en partenariat avec la société civile", conclut-il.

Les règles générales relatives à l'IA s'appliqueront un an après l'entrée en vigueur de la directive, soit en mai 2025, et les obligations relatives aux systèmes à haut risque dans trois ans.

Partager cet articleDiscussion

À découvrir également

Les eurodéputés approuvent la loi sur l'intelligence artificielle à une écrasante majorité

Intelligence artificielle : le recours à la surveillance de masse pourrait s'intensifier en Europe

Les clés de l'intégration de l'intelligence artificielle dans le monde du travail