EventsÉvènementsPodcasts
Loader
Suivez-nous
PUBLICITÉ

Loi sur l'intelligence artificielle : pas encore d'accord trouvé lors des négociations marathon de l'UE

Une photo publiée par l'équipe du commissaire Breton illustre les discussions marathon entre le Parlement européen et le Conseil au sujet de la loi sur l'IA.
Une photo publiée par l'équipe du commissaire Breton illustre les discussions marathon entre le Parlement européen et le Conseil au sujet de la loi sur l'IA. Tous droits réservés Terence Zakka on X.
Tous droits réservés Terence Zakka on X.
Par Jorge LiboreiroYolaine de Kerchove (traduction)
Publié le Mis à jour
Partager cet articleDiscussion
Partager cet articleClose Button
Cet article a été initialement publié en anglais

Le Parlement européen et les États membres ne sont pas parvenus à un accord politique sur la loi relative à l'intelligence artificielle, à l'issue de négociations marathon qui ont duré plus de 22 heures à Bruxelles. Les discussions reprendront vendredi matin.

PUBLICITÉ

Les négociations ont débuté mercredi après-midi, se sont poursuivies toute la nuit, puis le matin et se sont achevées jeudi après-midi, avec un ordre du jour qui aurait comporté plus de 23 points, reflétant l'extrême technicité de la question en jeu.

La loi est considérée comme la première tentative au monde de réglementer l'intelligence artificielle, une technologie dotée d'une capacité d'évolution étonnante et souvent imprévisible, d'une manière globale, éthique et durable pour l'environnement.

Les discussions se sont déroulées dans un contexte de lobbying agressif de la part des grandes entreprises technologiques et des start-ups, d'avertissements sévères de la part de la société civile et d'un examen minutieux de la part des médias, étant donné que la législation de Bruxelles pourrait bien influencer les efforts déployés par les États dans le monde entier.

Conscients des enjeux, le Parlement européen et le Conseil, qui représente les États membres, ont promis de lui donner une seconde chance vendredi, à partir de 9 heures.

"De nombreux progrès ont été réalisés au cours des 22 dernières heures sur la loi sur l'IA", a déclaré Thierry Breton, commissaire européen chargé du Marché intérieur.

Les législateurs qui ont participé aux longues discussions ont également déclaré que des progrès considérables avaient été accomplis, sans donner plus de détails par souci de confidentialité.

Les négociations ont été âprement disputées entre les députés européens et les gouvernements sur une série de questions très complexes, notamment la réglementation des modèles de fondation qui alimentent les chatbots tels que le révolutionnaire ChatGPT d'OpenAI et les exceptions ciblées pour l'utilisation de l'identification biométrique en temps réel dans les espaces publics.

Malgré sa durée impressionnante, voire record, le marathon de jeudi n'a pas suffi pour passer en revue l'ensemble des questions ouvertes.

Même si la deuxième tentative de vendredi permet de combler les lacunes et de parvenir à un accord provisoire au niveau politique, d'autres consultations seront probablement nécessaires pour peaufiner tous les détails techniques. L'Espagne, qui assure actuellement la présidence tournante du Conseil de l'Union européenne, a pour mission de veiller à ce que les 27 États membres et leur large éventail de points de vue restent sur la même longueur d'onde.

Une fois que le projet, qui compte des centaines de pages d'articles et d'annexes, aura été réécrit et qu'une version consolidée aura vu le jour, il sera transmis au Parlement européen pour un nouveau vote dans l'hémicycle, puis le Conseil donnera son feu vert définitif.

La loi bénéficiera alors d'une période de grâce avant de devenir pleinement applicable en 2026.

Une technologie en constante évolution

Présentée pour la première fois en avril 2021, la loi sur l'IA constitue une tentative inédite de garantir que la technologie la plus radicalement transformatrice du XXIe siècle soit développée d'une manière centrée sur l'humain et éthiquement responsable, qui permette de prévenir et de contenir ses conséquences les plus néfastes.

La loi est essentiellement une réglementation sur la sécurité des produits qui impose un ensemble de règles échelonnées que les entreprises doivent respecter avant d'offrir leurs services aux consommateurs dans l'ensemble du marché unique de l'Union européenne.

La loi propose une structure pyramidale qui répartit les produits alimentés par l'IA en quatre catégories principales en fonction du risque potentiel qu'ils représentent pour la sécurité des citoyens et leurs droits fondamentaux : risque minimal, risque limité, risque élevé et risque inacceptable.

Ceux qui entrent dans la catégorie du risque minimal seront exemptés de règles supplémentaires, tandis que ceux qui sont étiquetés comme présentant un risque limité devront se conformer à des obligations de transparence de base.

PUBLICITÉ

Les systèmes considérés comme présentant un risque élevé seront soumis à des règles strictes qui s'appliqueront avant leur entrée sur le marché de l'UE et pendant toute leur durée de vie, y compris les mises à jour substantielles. Ce groupe comprendra des applications qui ont un impact direct et potentiellement déterminant sur la vie des particuliers, comme les logiciels de tri de CV pour les entretiens d'embauche, la chirurgie assistée par robot et les programmes de notation d'examens dans les universités.

Les produits d'IA à haut risque devront faire l'objet d'une évaluation de conformité, être enregistrés dans une base de données de l'UE, signer une déclaration de conformité et porter le marquage CE - tout cela avant d'être mis à la disposition des consommateurs. Une fois disponibles, ils seront placés sous la surveillance des autorités nationales. Les entreprises qui enfreindront ces règles s'exposeront à des amendes de plusieurs millions d'euros.

Les systèmes d'IA présentant un risque inacceptable pour la société, notamment les systèmes de notation sociale visant à contrôler les citoyens et les applications qui exploitent les vulnérabilités socio-économiques, seront purement et simplement interdits sur l'ensemble du territoire de l'UE.

Bien que cette approche fondée sur le risque ait été bien accueillie en 2021, elle a été soumise à une pression extraordinaire à la fin de 2022, lorsque OpenAI a lancé ChatGPT et a déclenché une fureur mondiale au sujet des chatbots. ChatGPT a été rapidement suivi par Bard de Google, Bing Chat de Microsoft et, plus récemment, Q d'Amazon.

PUBLICITÉ

Les chatbots sont alimentés par des modèles de base, qui sont formés à partir de vastes quantités de données, telles que du texte, des images, de la musique, de la parole et du code, afin de remplir un ensemble large et fluide de tâches qui peuvent changer au fil du temps, plutôt que d'avoir un objectif spécifique et non modifiable.

La proposition initiale de la Commission n'introduisait aucune disposition pour les modèles de fondation, obligeant les législateurs à ajouter un article entièrement nouveau avec une longue liste d'obligations pour s'assurer que ces systèmes respectent les droits fondamentaux, sont économes en énergie et se conforment aux exigences de transparence en révélant que leur contenu est généré par l'IA.

Cette initiative du Parlement a été accueillie avec scepticisme par les États membres, qui ont tendance à préférer une approche douce de l'élaboration des lois. L'Allemagne, la France et l'Italie, les trois plus grandes économies de l'Union, ont présenté une contre-proposition en faveur d'une "autorégulation obligatoire par le biais de codes de conduite" pour les modèles de fondation. Cette initiative a suscité la colère des législateurs et menacé de faire dérailler le processus législatif.

Selon Reuters, les discussions de jeudi ont permis aux co-législateurs de se mettre d'accord sur des conditions provisoires pour les modèles de fondation. Les détails de l'accord n'étaient pas immédiatement disponibles.

PUBLICITÉ

L'utilisation de la biométrie à distance en temps réel, y compris la reconnaissance faciale, dans les espaces publics est une question controversée qui doit encore être résolue. La biométrie désigne les systèmes qui analysent les caractéristiques biologiques, telles que les traits du visage, la structure des yeux et les empreintes digitales, afin de déterminer l'identité d'une personne, généralement sans son consentement.

Les législateurs défendent une interdiction générale de l'identification biométrique en temps réel et de la catégorisation fondée sur des caractéristiques sensibles telles que le sexe, la race, l'appartenance ethnique ou l'affiliation politique. Les États membres, quant à eux, soutiennent que des exceptions sont nécessaires pour permettre aux forces de l'ordre de retrouver les criminels et de déjouer les menaces à la sécurité nationale.

Partager cet articleDiscussion

À découvrir également

Quelles règles fixer pour l'utilisation de l'intelligence artificielle ? C'est le casse-tête des 27

Ukraine : Moscou revendique la prise de deux villages

Une cinquantaine de militants antifascistes arrêtés à Vienne