La Maison Blanche compte d'abord sur les entreprises pour réguler l'IA

La vice-présidente américaine Kamala Harris et Joe Biden, le 1er mai 2023
La vice-présidente américaine Kamala Harris et Joe Biden, le 1er mai 2023 Tous droits réservés Carolyn Kaster/Copyright 2023 The AP. All rights reserved
Par euronews avec agences
Partager cet articleDiscussion
Partager cet articleClose Button
Copier/coller le lien embed de la vidéo de l'article :Copy to clipboardLien copié

Face aux risques suscités par l'émergence de l'Intelligence artificielle, Washington n'envisage pas de légiférer pour l'instant, contrairement aux Européens.

PUBLICITÉ

Désinformation, vol de la propriété intellectuelle, discrimination : face aux inquiétudes suscitées par l'émergence de l'intelligence artificielle l'Europe espère pouvoir adopter la toute première loi visant à encadrer l'IA. 

De l'autre côté de l'Atlantique, les Etats-Unis ont manifestement choisi une autre voie. Celle de l'autorégulation des entreprises du secteur, en attendant mieux ? 

C'est ce qui ressort de la réunion organisée jeudi par la Maison Blanche avec les patron des grandes entreprises de l'intelligence artificielle. 

La vice-présidente américaine Kamala Harris a déclaré que ces géants de la Tech avaient un devoir "moral" de protéger la société des dangers potentiels de cette technologie majeure.

"Le secteur privé a un devoir éthique, moral et légal de s'assurer de la sûreté et de la sécurité de ses produits", a-t-elle indiqué dans un communiqué après sa rencontre avec avec Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI), Dario Amodei (Anthropic) et plusieurs membres du gouvernement.

Kamala Harris a souligné que l'IA a le "potentiel d'améliorer le quotidien et de s'attaquer à certains des plus grands défis de la société", mais qu'elle pourrait aussi "augmenter considérablement les menaces qui pèsent sur la sécurité, rogner sur les droits humains et la confidentialité, et saper la confiance du public dans la démocratie".

"Il y a beaucoup de potentiel et beaucoup de danger dans ce que vous faites", a de son côté averti le président Joe Biden, quand il est passé rapidement à la réunion.

"Je sais que vous le comprenez et j'espère que vous pouvez nous éduquer sur ce dont nous avons besoin pour protéger la société et la faire avancer", a-t-il ajouté.

Les deux dirigeants soutiennent de "potentielles nouvelles régulations" et "une nouvelle législation", mais les tensions politiques au Congrès rendent cette perspective peu probable.

Le succès fulgurant cet hiver de ChatGPT, l'interface d'IA générative d'OpenAI, une start-up largement financée par Microsoft, a lancé une course à des systèmes toujours plus performants, capables de générer du code, des textes et des images de plus en plus complexes.

Leur déploiement rapide suscite de l'inquiétude, surtout quand Sam Altman, le patron d'OpenAI, évoque l'avènement prochain de l'IA dite "générale", quand les programmes seront "plus intelligents que les humains en général".

"C'est bien d'essayer d'anticiper (la question de la régulation). Cela ne va pas être facile mais je crois qu'on peut y arriver", a-t-il déclaré jeudi à des journalistes avant d'entrer à la Maison Blanche.

La Maison Blanche a publié fin 2022 un "plan pour une Déclaration des droits sur l'IA", qui énumère des principes généraux. Le National Institute of Standards and Technology (NIST), affilié au gouvernement, a conçu un "cadre pour la gestion des risques" liés à l'IA.

Et Joe Biden veut que les entreprises "s'assurent que leurs produits sont sûrs avant de les mettre à disposition du grand public", a rappelé son administration.

Mais "ces lignes directrices n'obligent pas les sociétés à quoi que ce soit", souligne David Harris, professeur à l'université de Berkeley, spécialiste des politiques publiques et ancien directeur de recherche sur une IA responsable chez Meta.

"Les patrons réclament eux-mêmes davantage de régulation", remarque-t-il, mais Facebook a longtemps "appelé publiquement" à mieux réglementer la confidentialité des données personnelles, "tout en payant des lobbies pour se battre contre les projets de loi".

La Maison Blanche a annoncé jeudi de nouveaux investissements dans la recherche sur l'IA et des méthodes d'évaluation des systèmes actuels.

"Dommages réels"

Les géants de l'IA ne nient pas l'existence de risques, mais craignent que l'innovation ne soit bridée par des lois trop contraignantes.

PUBLICITÉ

Michael Schwarz, économiste en chef de Microsoft, a appelé mercredi les législateurs à ne pas se précipiter, lors d'un débat au World Economic Forum, d'après Bloomberg. Et, quand il y aura des "dommages réels", à s'assurer que "les bénéfices de la régulation soient plus importants que le coût pour la société".

Lina Khan, la présidente de l'agence américaine de protection des consommateurs, a comparé le choix actuel avec l'avènement des grandes plateformes numériques dans les années 2000.

Dans une tribune publiée dans le New York Times mercredi, elle explique que leur modèle économique, fondé sur les données d'utilisateurs, aux dépens de leur "sécurité", n'était "pas inévitable".

"Les autorités ont la responsabilité de s'assurer que l'histoire ne se répète pas", a assené la juriste.

Partager cet articleDiscussion

À découvrir également

L'accord sur le plafond de la dette américaine passe une étape clé

Julian Assange bientôt libre ?

Passeport numérique des produits de l'UE : quelle définition et quel impact ?