Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

La réglementation fera-t-elle de l'UE la puissance la plus fiable en matière d'IA ?

La réglementation fera-t-elle de l'UE la puissance la plus fiable en matière d'IA ?
Tous droits réservés  Euronews
Tous droits réservés Euronews
Par Isabel Marques da Silva
Publié le Mis à jour
Partager cet article Discussion
Partager cet article Close Button
Copier/coller le lien embed de la vidéo de l'article : Copy to clipboard Lien copié

Veiller à ce que l'intelligence artificielle (IA) respecte les lois et les valeurs fondamentales et soit sûre pour les citoyens, tel était l'objectif de l'UE lorsqu'elle a adopté la loi sur l'IA.

PUBLICITÉ

Pour faciliter la mise en œuvre de cette législation à partir de l'année prochaine, l'UE a créé un code de conduite volontaire, mais certaines entreprises estiment que l'adhésion à ce code entraverait l'innovation.

L'UE invite les entreprises qui créent des chatbots génératifs tels que ChatGPT, Mistral, Gemini et Claude à signer un code de conduite volontaire sur l'IA à usage général. 

En signant le code et en adhérant aux règles, elles sont réputées se conformer à la loi sur l'IA, une loi européenne qui est entrée en vigueur en 2024 et qui définit quatre niveaux de risque pour l'utilisation de l'IA, de minime à inacceptable. 

Les entreprises qui refusent de signer le code peuvent être soumises à des inspections plus strictes et à des charges administratives plus lourdes. Des acteurs majeurs comme OpenAI et Anthropic soutiennent le code, tandis que d'autres, comme Meta, refusent de le signer. 

©
© Euronews

« Depuis le début du processus de rédaction en septembre dernier, Meta s'est montré très critique à l'égard du code, affirmant qu'il freine l'innovation, » a déclaré Cynthia Kroet, reporter principale sur les politiques technologiques à Euronews. 

« Ils ont mis en place quelques outils qu'ils ne peuvent pas utiliser pleinement en Europe, notamment en raison des règles de protection des données. En fin de compte, peu importe qu'ils signent ou non, car la loi sur l'IA prévaudra de toute façon, » a-t-elle ajouté. 

La loi sur l'IA sera mise en œuvre progressivement jusqu'en 2027. Ce mois-ci, les règles applicables aux modèles d'IA à usage général, tels que les chatbots génératifs mentionnés ci-dessus, entreront en vigueur et les entreprises disposeront de deux ans pour s'adapter. 

Toutefois, les futurs modèles qui entreront sur le marché devront se conformer immédiatement à la loi et, en cas d'infraction, la Commission pourra imposer une amende pouvant aller jusqu'à 15 millions d'euros. 

Réglementation et investissement ne sont pas incompatibles ?

©
© Euronews

Le code de conduite contient des suggestions sur la manière de respecter les droits d'auteur, des normes visant à éviter les risques systémiques liés aux modèles d'IA avancés et des conseils sur la manière de remplir un formulaire qui encourage la transparence sur la façon dont l’entreprise se conforme à la loi sur l'IA. 

Certains analystes estiment que l'UE utilise la réglementation pour se positionner stratégiquement comme le fournisseur d'IA le plus fiable au niveau mondial. Les États-Unis et la Chine ont des approches réglementaires moins complètes et se concentrent principalement sur l'attraction d'investissements importants dans le secteur. 

Cependant, Laura Lázaro Cabrera, conseillère au Centre pour la démocratie et la technologie, estime que les deux doivent aller de pair. 

« L'UE a fait de grands progrès dans le renforcement du soutien financier qu'elle apporte au développement de l'IA en Europe. Rien que cette année, plus de 200 milliards d'euros ont été annoncés pour l'investissement dans l'IA, » a déclaré Laura Lázaro Cabrera. 

« Les finances sont un élément important de l'équation, et il est en effet important que l'UE conserve un rôle de leader dans le développement de l'IA, mais nous pensons que ce leadership doit être lié à un cadre de sécurité solide qui promeut les droits fondamentaux et les systèmes d'IA centrés sur l'humain, » a ajouté la conseillère. 

Deepfakes, vol de données confidentielles, suicides liés à l'utilisation de chatbots sont quelques exemples des risques liés à l'IA générative. 

Laura Lázaro Cabrera espère que les obligations liées à la formation à l'IA pour les entreprises conduiront également à des campagnes et à des formations à l'échelle européenne pour les citoyens, afin de les aider à comprendre les avantages et les risques de cette technologie révolutionnaire. 

Regardez la vidéo ici ! 

Journaliste : Isabel Marques da Silva 

Production de contenu : Pilar Montero López 

Production vidéo : Zacharia Vigneron 

Graphisme : Loredana Dumitru 

Coordination éditoriale : Ana Lázaro Bosch et Jeremy Fleming-Jones

Accéder aux raccourcis d'accessibilité
Partager cet article Discussion

À découvrir également

L'UE ne parvient-elle pas à prévenir les feux de forêt ?

L'UE peut-elle mettre en œuvre sa nouvelle loi sur la liberté de la presse ?

L'économie de l'UE peut-elle résister à l'accord commercial avec les États-Unis ?