Six mois après l'appel des experts à une pause dans les expériences d'IA, où en sommes-nous ?

Les machines et l'IA représentent-elles un risque existentiel pour l'humanité ?
Les machines et l'IA représentent-elles un risque existentiel pour l'humanité ? Tous droits réservés Canva
Tous droits réservés Canva
Par Luke Hurst
Partager cet articleDiscussion
Partager cet articleClose Button
Cet article a été initialement publié en anglais

Les leaders de la technologie ont signé une lettre ouverte appelant à une pause dans les expériences d'IA, mais leurs avertissements ont-ils été pris en compte ?

PUBLICITÉ

L'intelligence artificielle (IA) représente-t-elle un risque existentiel pour l'humanité ? C'est ce que pense le Future of Life Institute (FLI), qui a publié une lettre ouverte il y a six mois, appelant à une "pause immédiate" dans les expériences d'intelligence artificielle à grande échelle.

Cette lettre a été publiée alors que l'IA générative suscitait un vif intérêt de la part du public et que des applications telles que ChatGPT et Midjourney montraient comment la technologie se rapprochait de plus en plus des capacités humaines dans les domaines de l'écriture et de l'art.

Pour les signataires de la lettre - dont Elon Musk, PDG de X, Tesla et SpaceX, Steve Wozniak, cofondateur d'Apple, et l'auteur Yuval Noah Harari - l'essor apparemment soudain de l'IA générative nécessitait une pause. Des entreprises comme OpenAI de ChatGPT et Google ont été invitées à réfléchir aux "risques profonds pour la société et l'humanité" que leur technologie pourrait engendrer.

Aujourd'hui, il apparaît que les principaux acteurs n'ont pas appuyé sur le bouton "pause".

Au contraire, d'autres entreprises ont rejoint la course à l'IA générative avec leurs propres grands modèles de langage (LLM), Meta lançant Llama 2 et Anthropic présentant son rival ChatGPT, Claude 2.

Que les géants de la technologie aient ou non tenu compte de ces avertissements, la lettre du Future of Life Institute a marqué une étape importante dans ce qui s'annonce comme l'année de l'IA.

Mark Brakel, directeur des Politiques de l'institut, explique qu'il ne s'attendait pas à ce que sa lettre reçoive l'écho qu'elle a eu, avec une large couverture médiatique et un regain d'urgence au sein des gouvernements pour déterminer ce qu'il convient de faire face aux progrès rapides de l'IA.

La lettre a été citée lors d'une audition au Sénat américain et a suscité une réponse officielle du Parlement européen.

Mark Brakel explique à Euronews Next que le prochain sommet mondial sur la sécurité de l'IA, à Bletchley Park au Royaume-Uni, sera une bonne occasion pour les gouvernements d'intervenir là où les entreprises refusent de freiner.

Selon lui, alors que le mot à la mode était jusqu'à présent "IA générative", il pourrait bientôt devenir "IA agentique", autrement dit une Intelligence artificielle qui peut réellement prendre des décisions et agir de manière autonome.

"Je pense que c'est peut-être la tendance - et nous voyons aussi comment OpenAI a presque éliminé le texte de l'ensemble de l'Internet. Nous commençons à voir des vidéos, des podcasts et Spotify comme sources alternatives de données, de vidéos et de voix", ajoute Mark Brakel.

Se dirige-t-on vers un désastre ?

Mark Brakel souligne que la FLI a été fondée en 2014, et a travaillé sur trois domaines majeurs de risque au niveau civilisationnel : l'IA, la biotechnologie et les armes nucléaires.

Son site web contient une vidéo particulièrement frappante, un récit fictif produit à grands frais d'une catastrophe mondiale en 2032 : en pleine tensions entre Taïwan et la Chine, la dépendance des militaires à l'égard de l'IA pour la prise de décision conduit à une guerre nucléaire totale, la vidéo se terminant par l'embrasement de la planète par des armes nucléaires.

Mark Brakel estime que nous nous sommes rapprochés de ce type de scénario.

"L'intégration de l'IA dans le commandement et le contrôle militaire continue de progresser, en particulier au sein des grandes puissances. Toutefois, je constate également que les États souhaitent davantage réglementer, en particulier en ce qui concerne l'autonomie des systèmes d'armes conventionnels", affirme-t-il. 

L'année prochaine s'annonce également prometteuse pour la réglementation de l'autonomie dans des systèmes tels que les drones, les sous-marins et les chars d'assaut.

"J'espère que cela permettra également aux grandes puissances de parvenir à des accords pour éviter les accidents dans le domaine du commandement et du contrôle nucléaire, qui est un niveau plus sensible que les armes conventionnelles", confie-t-il.

Réglementation à venir

Si les grandes entreprises d'IA n'ont pas fait de pause dans leurs expérimentations, leurs dirigeants ont ouvertement reconnu les risques profonds que l'IA et l'automatisation font peser sur l'humanité.

PUBLICITÉ

Le PDG d'OpenAI, Sam Altman, a appelé les responsables politiques américains, au début de l'année, à mettre en place une réglementation gouvernementale de l'IA, révélant que ses "pires craintes sont que nous...l'industrie technologique, causions des dommages significatifs au monde"

"Cela pourrait se produire de "bien des façons différentes", a-t-il ajouté. Il a appelé à la création d'une agence américaine ou mondiale qui délivrerait des licences aux systèmes d'IA les plus puissants.

L'Europe pourrait toutefois s'avérer être le chef de file en matière de réglementation de l'IA, avec la loi historique de l'Union européenne sur l'IA qui est en cours d'élaboration.

Les derniers détails sont encore en cours d'élaboration entre les institutions de l'Union, mais le Parlement européen a voté massivement en faveur de cette loi, avec 499 voix pour, 28 voix contre et 93 abstentions.

En vertu de la loi, les systèmes d'IA seront classés en différents niveaux en fonction du degré de risque, les types les plus risqués étant interdits et les systèmes à risque limité nécessitant certains niveaux de transparence et de surveillance.

PUBLICITÉ

"Nous sommes globalement satisfaits de la loi", assure Mark Brakel. "Une chose que nous avons défendue dès le début, lorsque la loi a été proposée par la Commission, c'est qu'elle doit réglementer les systèmes basés sur les GPT_[Transformateur Génératif Pré-entraîné, modèle de langage développé par la société américaine OpenAI]. À l'époque, nous parlions de GPT3 plutôt que de GPT4, mais le principe reste le même et nous sommes confrontés à un important lobbying de la part des grandes entreprises technologiques"._

"Le discours est le même aux États-Unis et dans l'UE : seuls les utilisateurs des systèmes d'IA, ceux qui les déploient, savent dans quel contexte ils sont déployés'", précise-t-il.

Il donne l'exemple d'un hôpital qui utilise un chatbot pour contacter les patients. "Vous allez simplement acheter le chatbot auprès d'OpenAI, vous n'allez pas le construire vous-même. Et s'il y a ensuite une erreur dont vous êtes tenu responsable parce que vous avez donné des conseils médicaux que vous n'auriez pas dû, alors il est clair que vous devez comprendre quel type de produit vous avez acheté. Et une partie de cette responsabilité devrait être partagée", explique Mark Brakel.

Alors qu'est attendue la formulation finale de la loi européenne, le sommet mondial sur la sécurité de l'IA du 1er novembre pourrait donner un aperçu de la manière dont les dirigeants du monde entier aborderont la réglementation de l'IA dans un avenir proche.

Partager cet articleDiscussion

À découvrir également

Intelligence artificielle : le enjeux de la future réglementation européenne

Comment l'intelligence artificielle va changer la guerre

Belgique : un homme poussé au suicide par l'intelligence artificielle