L’UE veut créer un contrat de confiance pour le développement de l’intelligence artificielle

L’UE veut créer un contrat de confiance pour le développement de l’intelligence artificielle
Tous droits réservés MAURO PIMENTEL/AFP
Tous droits réservés MAURO PIMENTEL/AFP
Par Aida Sanchez Alonso
Partager cet articleDiscussion
Partager cet articleClose Button
Copier/coller le lien embed de la vidéo de l'article :Copy to clipboardLien copié

La Commission européenne propose d’encadrer le développement de cette technologie.

PUBLICITÉ

Développer l’intelligence artificielle et respecter les droits des citoyens. C’est l’équation à laquelle veut répondre la Commission européenne avec ses propositions présentées mercredi.

Cette technologie provoque une certaine méfiance face à des systèmes capables d’analyser et d’apprendre à partir de leur environnement pour ensuite prendre des décisions spécifiques. La Commission veut donc construire une atmosphère de confiance.

Selon la vice-présidente de la Commission le texte présenté s’appuie sur une logique simple et proportionnée. "Plus le risque d’une utilisation spécifique de l’intelligence artificielle peut avoir de conséquences sur nos vies, plus les règles doivent être strictes", explique Margrethe Vestager.

La Commission propose d’établir quatre catégories de risques :

  • le risque minimum : il autorise l'utilisation libre d'applications tels que les jeux vidéo ou les filtres anti-spam
  • Le risque limité : il réclame la transparence, les utilisateurs doivent savoir qu'ils interagissent avec une machine
  • le risque élevé : il prévoit des obligations strictes, un contrôle humain nécessaire, des données de qualité pour éviter les risques discriminatoires.
  • le risque inacceptable : il est interdit car il menace la sécurité ou le droit des personnes

La Commission propose d’interdire dans l’espace public les systèmes d’identification biométrique. Des exceptions seront toutefois acceptées mais dans des cas très encadrés comme lors d’une disparition d’enfant ou en cas de menace terroriste imminente.

Pour Thomas Boué de Software Alliance, qui représente le lobby du numérique, "ici en fait il faut comprendre le contexte, l’objectif du recours à l’intelligence artificielle". Il donne l’exemple de la reconnaissance faciale qui peut être " utile pour déverrouiller votre téléphone portable (…) et cela entraine moins de risque que de l’employer largement dans l’espace public pour identifier des personnes", ajoute-t-il.

Cette annonce n’est que le début d’un long parcours institutionnel. Mais la Commission espère que ses propositions auront un effet d’entrainement à l’échelle internationale.

Journaliste • Grégoire Lory

Partager cet articleDiscussion

À découvrir également

Pompiers et climatologues veulent devancer les feux de forêt grâce à l'intelligence artificielle

Santé et éducation : l'intelligence artificielle répond à la pandémie

Intelligence artificielle : l'UE veut rattraper son retard