Un accord historique sur la sécurité liée à l'IA, conclu au sommet mondial sur l'IA

Elon Musk, PDG de Tesla et SpaceX, à gauche, assiste à la première session plénière du sommet sur la sécurité de l'IA à Bletchley Park, le mercredi 1er novembre 2023 à Bletchley, en Angleterre.
Elon Musk, PDG de Tesla et SpaceX, à gauche, assiste à la première session plénière du sommet sur la sécurité de l'IA à Bletchley Park, le mercredi 1er novembre 2023 à Bletchley, en Angleterre. Tous droits réservés Toby Melville/Pool Photo via AP
Tous droits réservés Toby Melville/Pool Photo via AP
Par Pascale Davies
Partager cet articleDiscussion
Partager cet articleClose Button
Cet article a été initialement publié en anglais

Des représentants et des entreprises de 28 pays, dont les États-Unis et la Chine, ainsi que l'UE, ont signé le pacte qui vise à lutter contre les risques liés aux modèles d'IA dits "pionniers".

PUBLICITÉ

Un accord "inédit" a été conclu sur la sécurité de l'intelligence artificielle (IA) lors d'un sommet mondial qui s'est tenu au Royaume-Uni mercredi.

Des experts en technologie, des dirigeants mondiaux et des représentants de 27 pays et de l'Union européenne se sont rendus au premier Sommet mondial sur l'intelligence artificielle (IA), organisé jusqu'à jeudi à Bletchley Park, l'emblématique centre de décryptage des codes de la Seconde guerre mondiale. 

Voici les principaux enseignements de la première journée.

Un accord historique sur l'IA

La déclaration de Bletchley sur la sécurité de l'IA est une déclaration signée par des représentants et des entreprises de 28 pays, dont les États-Unis, la Chine et l'Union européenne. Elle vise à lutter contre les risques liés aux modèles d'IA dits "pionniers", c'est-à-dire les grands modèles de langage développés par des entreprises telles qu'OpenAI.

Le gouvernement britannique a qualifié cet accord de "première mondiale" entre les signataires. Cet accord vise à identifier les "risques de sécurité de l'IA d'intérêt commun" et à élaborer des "politiques respectives basées sur les risques dans les différents pays".

Une vue extérieure montre le manoir du musée de Bletchley Park dans la ville de Bletchley dans le Buckinghamshire, en Angleterre, le 15 janvier 2015
Une vue extérieure montre le manoir du musée de Bletchley Park dans la ville de Bletchley dans le Buckinghamshire, en Angleterre, le 15 janvier 2015Matt Dunham/Copyright 2023 The AP.

Toutefois, on ne sait pas exactement comment les accords seront mis en œuvre.

La Secrétaire d'État britannique à la Science, à l'Innovation et à la Technologie, Michelle Donelan, affirme que l'accord est une "réalisation historique" et qu'il "jete les bases des discussions d'aujourd'hui".

Le gouvernement britannique a également annoncé la tenue de futurs sommets sur la sécurité de l'IA.

La Corée du Sud lancera un autre sommet "mini virtuel" sur l'IA dans les six prochains mois et la France accueillera le prochain sommet sur l'IA, l'année prochaine.

Toutefois, les experts estiment que l'accord ne va pas assez loin.

"Réunir les grandes puissances pour approuver des principes éthiques peut être considéré comme un succès, mais l'élaboration de politiques concrètes et de mécanismes de responsabilité doit suivre rapidement", souligne Paul Teather, PDG de la société de recherche sur l'IA AMPLYFI, à Euronews Next.

"Une terminologie vague laisse place à des interprétations erronées, tandis que s'appuyer uniquement sur une coopération volontaire est insuffisant pour susciter des meilleures pratiques mondialement reconnues en matière d'IA", ajoute-t-il. 

Intervenants clés

L'entrepreneur milliardaire, Elon Musk, est arrivé au sommet et est resté silencieux pendant les discussions. Il a toutefois expliqué que le rassemblement visait à établir un "arbitre" pour les entreprises technologiques.

"Je pense que ce que nous visons vraiment ici, c'est d'établir un cadre de réflexion pour qu'il y ait au moins un arbitre tiers, un arbitre indépendant, qui puisse observer ce que font les principales entreprises d'IA et au moins tirer la sonnette d'alarme s'il a des inquiétudes", explique-t-il, à l'agence de presse, PA.

"Je pense que ce que nous visons ici est... d'abord, d'établir qu'il devrait y avoir une fonction d'arbitre, je pense qu'il devrait y en avoir une.

Et ensuite, vous savez, être prudent dans la manière dont les réglementations sont appliquées, afin de ne pas aller à l'assaut avec des réglementations qui inhibent le côté positif de l'IA", explique Elon Musk. 

Elon Musk s'entretiendra avec le Premier ministre britannique, Rishi Sunak, plus tard dans la journée de mercredi sur sa plateforme X, anciennement Twitter.

Le roi Charles III de Grande-Bretagne a envoyé un discours vidéo dans lequel il compare le développement de l'IA à l'importance de la fission de l'atome et à la maîtrise du feu.

PUBLICITÉ
La vice-présidente américaine Kamala Harris, accompagnée de son mari, Douglas Emhoff, arrive à l'aéroport de Stansted pour sa visite au sommet sur l'IA
La vice-présidente américaine Kamala Harris, accompagnée de son mari, Douglas Emhoff, arrive à l'aéroport de Stansted pour sa visite au sommet sur l'IAJoe Giddens/AP

Il assure que l'IA est "l'un des plus grands bonds technologiques de l'histoire de l'humanité" et qu'elle pourrait contribuer à "accélérer notre marche vers le zéro émission et à instaurer une nouvelle ère d'énergie verte propre et potentiellement illimitée".

Il lance, toutefois, un avertissement : "nous devons travailler ensemble pour lutter contre les risques significatifs qu'elle comporte".

La vice-présidente des États-Unis, Kamala Harris, affirme qu'il est nécessaire d'agir maintenant pour traiter "l'ensemble du spectre" des risques liés à l'IA et pas seulement les craintes "existentielles" concernant les menaces de cyberattaques ou le développement d'armes biologiques.

"Il existe d'autres menaces qui exigent également notre action, des menaces qui causent actuellement des dommages et qui, pour de nombreuses personnes, sont également existentielles", déclare-t-elle, depuis l'ambassade des États-Unis à Londres.

Les ambitions du Royaume-Uni

Ce n'est un secret pour personne que Rishi Sunak souhaite que le Royaume-Uni soit un leader dans le domaine de l'IA. Cependant, d'autres pays sont déjà en train d'établir leurs propres réglementations en matière d'IA.

PUBLICITÉ

La concurrence des États-Unis est rude. Le président américain, Joe Biden, a indiqué que "l'Amérique ouvrira la voie pendant cette période de changement technologique", après avoir signé un décret sur l'IA le 30 octobre. De son côté, l'Union européenne dispose également de son propre ensemble de lignes directrices en matière d'IA.

Toutefois, contrairement à l'UE, le Royaume-Uni a annoncé qu'il ne prévoyait pas d'adopter une nouvelle législation pour réglementer l'IA, mais qu'il demanderait plutôt aux régulateurs existants au Royaume-Uni d'être responsables de l'IA dans leurs secteurs.

La Chine s'efforce elle aussi d'adopter ses propres règles régissant l'IA générative.

Le vice-ministre chinois de la technologie, Wu Zhaohui, a souligné, lors du sommet, que la Chine contribuerait à un "mécanisme international [sur l'IA], élargissant la participation, et à un cadre de gouvernance basé sur un large consensus, offrant des avantages à la population et construisant une communauté avec un avenir commun pour l'humanité".

Partager cet articleDiscussion

À découvrir également

IA et genre : pourquoi les intelligences artificielles ont souvent des traits féminins ?

IA et emploi : dans quelles professions y aura-t-il des licenciements ?

Elections européennes : des réseaux sociaux sous influence, mais un peu mieux surveillés dans l'UE