Cinq questions pour mieux connaître la future politique de l'UE sur l'intelligence artificielle (IA)

Cinq questions pour mieux connaître la future politique de l'UE sur l'intelligence artificielle (IA)
Tous droits réservés Martin Meissner/Copyright 2019 The Associated Press. All rights reserved.
Par Yolaine De Kerchove Dexaerde
Partager cet articleDiscussion
Partager cet articleClose Button

Le développement de l'intelligence artificielle en Europe : pourquoi faut-il s'en inquiéter ?

PUBLICITÉ

Les possibilités de l'utilisation de l'intelligence artificielle (IA) peuvent être infinies, mais les risques sont également présents.

Obtenir une recommandation de film sur votre plateforme de vidéo à la demande préférée, débloquer votre téléphone avec votre visage, utiliser le correcteur automatique ou discuter avec un chatbot. Voilà des exemples quotidiens de l'utilisation de l'intelligence artificielle (IA). Malgré son aspect futuriste, l'IA est une technologie que les citoyens européens utilisent et avec laquelle ils interagissent quotidiennement.

Le potentiel d'utilisation de l'IA à des fins bénéfiques est énorme : moins de pollution, de meilleurs soins médicaux, de meilleures opportunités, une meilleure éducation et davantage de moyens pour permettre aux citoyens de s'engager dans leur société
Margrethe Vestager
vice-présidente exécutive de la Commission européenne pour une Europe adaptée à l'ère numérique

"Les possibilités peuvent s'étendre à tous les domaines de la vie, y compris la lutte contre le terrorisme et la criminalité et le renforcement de la cybersécurité", a insisté Margrethe Vestager lors d'un débat au sein de la commission spéciale du Parlement européen sur l'intelligence artificielle. Et c'est là que les risques peuvent commencer à apparaître. C'est l'une des raisons pour lesquelles la Commission européenne a été le premier organe à proposer une réglementation de l'IA dans le monde.

Mais tout d'abord, qu'est-ce que l'intelligence artificielle et pourquoi faut-il s'inquiéter ?

L'intelligence artificielle est une technologie qui permet aux machines de percevoir, d'analyser et d'apprendre de leur environnement. Grâce à toutes ces informations, elles peuvent prédire et prendre leurs propres décisions pour atteindre des objectifs spécifiques. Les applications de l'IA sont nombreuses.

Par exemple, elle peut être utilisée à des fins médicales, comme l'identification du risque d'Alzheimer, pour l'agriculture ou pour le suivi des employés lorsqu'ils travaillent à distance.

Mais comme l'intelligence artificielle collecte d'énormes quantités de données et utilise des informations qui reproduisent certains des préjugés de la société, elle présente de nombreux risques. Par exemple, elle peut porter atteinte à la vie privée, mettre en danger les droits fondamentaux ou accroître la discrimination à l'égard des minorités.

Quelle est la position actuelle de l'UE sur l'intelligence artificielle ?

"Plus le risque qu'une utilisation spécifique de l'IA peut entraîner pour nos vies est élevé, plus la règle est stricte", tels sont les mots utilisés par Margrethe Vestager en avril dernier pour définir la base de la proposition de la Commission européenne sur l'intelligence artificielle. Le texte divise les différentes IA en quatre catégories, en fonction du risque qu'elles peuvent représenter pour les citoyens.

Les technologies à risque minimal sont celles qui présentent un risque minimal ou nul pour les citoyens. Elles seront donc libres d'utilisation et les nouvelles règles ne s'appliqueront pas à elles. Par exemple, les filtres anti-spam.

Les technologies à risque limité seront soumises à des obligations de transparence afin que les citoyens sachent qu'ils interagissent avec une machine et puissent ainsi prendre des décisions en connaissance de cause. Les chatbots en sont un exemple.

La catégorie "risque élevé" correspond aux utilisations de l'IA telles que la reconnaissance faciale, les procédures juridiques et les applications de tri de CV. Elle est controversée car elle peut potentiellement être nuisible ou avoir des implications dommageables pour ses utilisateurs. La Commission s'attend donc à ce que ces systèmes soient "soigneusement évalués avant d'être mis sur le marché et tout au long de leur cycle de vie".

La dernière catégorie est celle des systèmes inacceptables. C'est ici que la Commission européenne a tracé la ligne et exclut tous les systèmes d'IA qui constituent "une menace claire pour la sécurité, les moyens de subsistance et les droits des personnes". Un exemple peut être le scoring social par les gouvernements ou l'utilisation de techniques subliminales.

Mais pour Sarah Chander, conseillère politique senior auprès de European Digital Rights (EDRi), la proposition de la Commission européenne "risque de permettre la mise en place de systèmes d'IA discriminatoires et de surveillance vraiment invasifs qui devraient au contraire être purement et simplement interdits". Parmi les exemples, citons les technologies permettant de déployer des drones aux frontières ou les applications permettant d'évaluer les prestations de sécurité sociale.

Le Parlement européen a récemment voté contre la surveillance de masse dans un rapport non contraignant.

Nous sommes clairement opposés à la police prédictive basée sur l'utilisation de l'IA ainsi qu'à tout traitement des données biométriques qui conduit à une surveillance de masse
Petar Vitanov
eurodéputé

La reconnaissance faciale va-t-elle devenir une réalité dans l'Union européenne ?

La reconnaissance faciale à des fins de sécurité est l'une des questions les plus brûlantes en matière de réglementation de l'IA. Une étude récente commandée par les Verts au Parlement européen montre que sur les 27 Etats membres, 11 utilisent déjà l'intelligence artificielle. L'Allemagne, la France, la Hongrie, les Pays-Bas ou la Finlande en sont quelques exemples.

Pour la Commission, il s'agit d'une utilisation à haut risque. Mais au Parlement européen, les avis sont partagés. Alors que certains demandent une interdiction totale, d'autres préfèrent une approche différente.

"Nous demandons un moratoire sur le déploiement des systèmes de reconnaissance faciale à des fins répressives, car cette technologie s'est avérée inefficace et conduit souvent à des résultats discriminatoires", a déclaré M. Vitanov à la mi-octobre.

Mais lors d'une conférence de presse ce mardi, le député européen Axel Voss, rapporteur d'un autre texte sur l'IA, a déclaré que "même pour la reconnaissance faciale, vous pouvez fixer des garanties afin qu'elle puisse être utilisée, mais pas à mauvais escient".

La reconnaissance faciale ne sera pas écartée de la législation. Sarah Chander prévient qu'en matière de réglementation, les conflits pourraient survenir non pas au niveau européen mais au niveau national. Si elle estime que des ministères comme celui de l'innovation sont "très positifs" quant à la "nécessité d'une réglementation davantage fondée sur les droits de l'homme", la situation n'est pas la même pour les ministères de l'intérieur. Ceux-ci sont généralement en charge de la police et ont donc "tendance à être plus sceptiques quant à l'interdiction de la reconnaissance faciale et de la police prédictive".

PUBLICITÉ

Peut-on éviter les risques de reproduction des préjugés ?

Avec sa proposition, l'objectif de la Commission européenne est que les systèmes d'IA "ne créent ni ne reproduisent de biais". Ainsi, les exigences des systèmes d'IA à haut risque devront être "robustes" pour se conformer aux besoins.

Mais Sarah Chander insiste sur le fait que de nombreux systèmes d'IA "augmenteront intrinsèquement la discrimination en raison de la nature même de leur fonctionnement". Comme elle l'a déclaré, elle utilise "des données et des informations du passé et tente de les appliquer à l'avenir". Cela pourrait reproduire les préjugés et les discriminations qui existent déjà dans la société.

En ce qui concerne le préjudice qu'elles pourraient causer, Sarah Chander estime que la Commission a négligé un problème essentiel : le manque de possibilités pour les citoyens de se plaindre. Elle demande un moyen pour les citoyens potentiellement affectés de s'adresser à une autorité pour s'assurer que leurs droits sont respectés.

Et qu'en est-il de la surréglementation ou de la sous-réglementation ?

Du souhait d'établir la norme mondiale au risque de surréglementation qui brise l'opportunité pour la technologie d'avancer. L'Union européenne est confrontée à un grand défi avec la réglementation de l'IA. Bruxelles s'attend à l'application d'une norme mondiale comme cela s'est produit avec le GDPR.

Pour Margrethe Vestager, les problèmes pourraient venir si l'UE n'est pas capable de la sécuriser. "Ma préoccupation est que nous risquons que la technologie ne soit pas développée et utilisée aussi largement qu'elle le pourrait si nous ne sommes pas bons pour atténuer les risques qui y sont liés".

PUBLICITÉ

Dans le même temps, l'UE devrait trouver un équilibre entre l'utilisation étatique de l'IA par la Chine et l'approche des États-Unis, qui consiste à élaborer des lignes directrices volontaires en collaboration avec les grandes entreprises technologiques.

Journaliste • Yolaine De Kerchove Dexaerde

Partager cet articleDiscussion

À découvrir également

La centrale de Zaporijjia n'explosera probablement pas, mais l'Europe reste sur ses gardes

La politique d'Ursula von der Leyen : Trop à droite pour la gauche et trop à gauche pour la droite ?

Spitzenkandidaten : Solution démocratique ou mascarade politique ?