« Il [le président Trump] essaie de faire rentrer le secteur de l’IA dans le rang comme tout le monde », explique à Euronews l’informaticien Ben Goertzel.
L’interdiction visant Anthropic décidée par le gouvernement américain apparaît punitive, après le bras de fer public qui oppose l’entreprise au Pentagone autour de son refus d’autoriser un usage militaire illimité de son modèle d’IA Claude.
Anthropic a présenté ses arguments mardi devant un tribunal fédéral de San Francisco, demandant une injonction contre la décision de Washington de l’inscrire sur liste noire au nom de la sécurité nationale.
La juge fédérale Rita F. Lin a déclaré d’emblée à l’audience que « cela ressemble à une tentative de mettre Anthropic à genoux », ajoutant qu’elle craignait que le gouvernement ne sanctionne la société pour avoir critiqué ouvertement sa position, ont rapporté des médias américains (source en anglais).
Le président américain Donald Trump et le secrétaire à la Défense Pete Hegseth ont déclaré publiquement en février qu’ils rompaient avec cette entreprise d’intelligence artificielle (IA) après son refus d’autoriser un usage militaire sans restriction de son modèle Claude. Les restrictions contestées portent notamment sur l’emploi d’armes autonomes létales sans supervision humaine et sur la surveillance de masse des Américains.
En réaction, le gouvernement américain a qualifié Anthropic de « risque pour la chaîne d’approvisionnement et la sécurité nationale » et a ordonné aux agences fédérales de cesser d’utiliser Claude.
Le 9 mars, Anthropic a intenté deux actions en justice contre le gouvernement au sujet de cette désignation de risque pour la chaîne d’approvisionnement. L’une demande un réexamen de ce statut, l’autre accuse l’administration Trump d’avoir violé le droit à la liberté d’expression garanti à l’entreprise par le premier amendement de la Constitution.
La juge Lin a estimé au tribunal que le Pentagone était libre de choisir les produits d’IA qu’il utilise, mais elle s’est interrogée sur le fait de savoir si le gouvernement n’avait pas enfreint la loi en interdisant aux agences d’utiliser les services d’Anthropic, et lorsque Hegseth a annoncé que ceux qui souhaitaient travailler avec le Pentagone devaient couper les ponts avec Anthropic, a rapporté NPR.
Un avocat du gouvernement a soutenu que les décisions du Pentagone n’étaient pas des mesures de représailles, mais fondées sur les usages potentiels du modèle d’IA d’Anthropic, et non sur le fait que la société ait rendu public son désaccord.
NPR a également indiqué qu’Anthropic pourrait à l’avenir être considéré comme un risque, car l’entreprise pourrait mettre à jour son modèle Claude d’une manière qui mettrait en danger la sécurité nationale.
Euronews Next a contacté Anthropic pour recueillir un commentaire, mais n’avait pas reçu de réponse au moment de la publication.
Ce que la décision changerait pour les entreprises d’IA
Le statut de risque pour la chaîne d’approvisionnement ne s’applique en général qu’à des entreprises étrangères.
« Il semble inapproprié de l’appliquer dans ce cas », estime Ben Goertzel, informaticien et directeur général de SingularityNet et de The Artificial Superintelligence Alliance.
« Cela signifie que l’exécutif peut réinterpréter les mots et les lois comme bon lui semble », a-t-il déclaré à Euronews Next.
Goertzel a ajouté que, si la version la plus stricte de ce statut de risque pour la chaîne d’approvisionnement était retenue, et qu’elle interdisait à Anthropic de vendre des logiciels à toute entreprise ayant des contrats publics, ce serait « extrêmement mauvais pour l’entreprise ».
Il estime qu’Anthropic survivrait financièrement, car il existe beaucoup plus d’opportunités en dehors des projets gouvernementaux, et que « cela leur vaudrait un soutien très marqué de la part de la frange du pays qui n’est pas vraiment fan de Donald Trump ».
Mais selon lui, l’effet immédiat du maintien de cette désignation de risque pour la chaîne d’approvisionnement serait de « dissuader d’autres entreprises de tenir tête à l’administration Trump ».
« Le président Trump essaie d’apprendre à l’industrie de l’IA à rentrer dans le rang comme tout le monde », a résumé Goertzel.
La juge Lin a indiqué qu’elle comptait rendre dans les prochains jours sa décision sur une éventuelle suspension temporaire de l’interdiction gouvernementale, le temps que la justice poursuive l’examen du dossier sur le fond.