Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Washington classe Anthropic comme risque pour la chaîne d'approvisionnement dans l'IA militaire

Des pages du site d’Anthropic et le logo de l’entreprise s’affichent sur un écran d’ordinateur, à New York, le jeudi 26 février 2026.
Des pages du site d'Anthropic et le logo de l'entreprise s'affichent sur un écran d'ordinateur à New York, jeudi 26 février 2026. Tous droits réservés  AP Photo
Tous droits réservés AP Photo
Par Roselyne Min avec AP
Publié le Mis à jour
Partager Discussion
Partager Close Button

La décision sans précédent de l’administration Trump visant Anthropic au sujet des garde-fous de l’IA pousse les prestataires publics à revoir l’usage du chatbot Claude.

L’administration américaine met sa menace à exécution en classant l’entreprise d’intelligence artificielle (IA) Anthropic comme un risque pour la chaîne d’approvisionnement, une décision sans précédent qui pourrait obliger d’autres sous-traitants de l’État à cesser d’utiliser le chatbot d’IA Claude.

PUBLICITÉ
PUBLICITÉ

Le Pentagone a indiqué dans un communiqué publié jeudi qu’il avait « officiellement informé la direction d’Anthropic que l’entreprise et ses produits sont considérés comme un risque pour la chaîne d’approvisionnement, avec effet immédiat ».

Cette décision semble refermer la porte à toute nouvelle négociation avec Anthropic, près d’une semaine après que le président Donald Trump et le secrétaire à la Défense Pete Hegseth ont accusé l’entreprise de mettre en danger la sécurité nationale.

Trump et Hegseth avaient annoncé une série de sanctions potentielles vendredi dernier, à la veille de la guerre contre l’Iran, après que le directeur général d’Anthropic, Dario Amodei, a refusé de céder sur ses craintes que les produits de l’entreprise puissent être utilisés pour une surveillance de masse des Américains ou pour des armes autonomes.

Amodei a déclaré jeudi dans un communiqué : « Nous ne pensons pas que cette mesure soit juridiquement fondée et nous n’avons d’autre choix que de la contester en justice. »

« Il s’agit d’un principe fondamental : que l’armée puisse utiliser la technologie pour toutes les finalités légales », affirme encore le communiqué du Pentagone.

« L’armée ne permettra pas à un fournisseur de s’immiscer dans la chaîne de commandement en restreignant l’usage légal d’une capacité critique et en mettant nos combattants en danger », ajoute-t-il.

Amodei rétorque que les exceptions ciblées qu’Anthropic cherchait à instaurer pour limiter la surveillance et les armes autonomes « concernent des domaines d’utilisation de haut niveau, et non la prise de décision opérationnelle ».

Il a ajouté qu’il y avait eu ces derniers jours des « échanges constructifs » avec le Pentagone sur la possibilité de continuer à utiliser Claude ou d’organiser une « transition en douceur » en cas d’absence d’accord.

Trump a accordé aux forces armées six mois pour se passer progressivement de Claude, déjà largement intégré aux plateformes militaires et de sécurité nationale. Amodei a indiqué qu’il était prioritaire de veiller à ce que les soldats ne soient pas « privés d’outils importants en pleine opérations de combat majeures ».

Certains sous-traitants de la défense avaient déjà commencé à rompre leurs liens avec Anthropic, étoile montante du secteur technologique qui commercialise Claude auprès de nombreuses entreprises et agences gouvernementales.

Le groupe de défense Lockheed Martin a indiqué qu’il « suivra les directives du président et du ministère de la Guerre » et qu’il se tournera vers d’autres fournisseurs de modèles de langage de grande taille (LLM).

« Nous prévoyons un impact minimal, car Lockheed Martin ne dépend d’aucun fournisseur unique de LLM pour quelque partie que ce soit de nos activités », a précisé l’entreprise.

On ne sait pas encore comment le département américain de la Défense interprétera la portée de cette désignation de risque. Amodei a indiqué qu’une notification reçue d’Anthropic mercredi en provenance du Pentagone montre qu’elle ne s’applique qu’à l’utilisation de Claude par des clients dans le cadre « d’une partie directe » de leurs contrats militaires.

Microsoft a indiqué que ses avocats ont étudié la règle et que l’entreprise « peut continuer à travailler avec Anthropic sur des projets sans lien avec la défense ».

Le Pentagone critiqué pour sa décision

La décision du Pentagone d’appliquer une règle conçue pour faire face aux menaces pesant sur la chaîne d’approvisionnement de la part d’adversaires étrangers a suscité de vives critiques. Les codes fédéraux définissent le risque pour la chaîne d’approvisionnement comme « le risque qu’un adversaire puisse saboter, introduire de manière malveillante une fonction non désirée ou autrement subvertir » un système afin de le perturber, de le dégrader ou de l’espionner.

La sénatrice américaine Kirsten Gillibrand, démocrate de New York et membre de la commission des forces armées et de la commission du renseignement du Sénat, a dénoncé « un usage dangereux d’un outil destiné à traiter des technologies contrôlées par des adversaires ».

« Cette décision irresponsable est à courte vue, autodestructrice et fait le jeu de nos adversaires », a-t-elle déclaré dans un communiqué écrit jeudi.

Neil Chilson, ancien responsable républicain des technologies au sein de la Federal Trade Commission, aujourd’hui chargé de la politique en matière d’IA à l’Abundance Institute, a estimé que la décision ressemble à « un dépassement de pouvoir massif qui nuira à la fois au secteur américain de l’IA et à la capacité de l’armée d’acquérir les meilleures technologies pour les combattants américains ».

Plus tôt dans la journée, un groupe d’anciens responsables de la défense et de la sécurité nationale a adressé une lettre aux parlementaires américains exprimant sa « grave préoccupation » face à cette désignation.

« L’utilisation de ce pouvoir contre une entreprise américaine est un profond détournement de son objet initial et crée un précédent dangereux », indique la lettre cosignée par d’anciens responsables et experts, dont l’ex-directeur de la CIA Michael Hayden et d’anciens chefs de l’armée de l’air, de terre et de la marine.

Ils ajoutent qu’une telle désignation vise à « protéger les États-Unis contre l’infiltration par des adversaires étrangers – par des entreprises redevables à Pékin ou Moscou, et non par des innovateurs américains opérant de manière transparente dans le cadre de l’État de droit. Utiliser cet outil pour sanctionner une entreprise américaine parce qu’elle refuse de lever des garde-fous contre la surveillance de masse sur le territoire national et contre des armes entièrement autonomes constitue une erreur de catégorie dont les conséquences dépassent largement ce différend ».

Anthropic dopée par les téléchargements grand public

Alors même qu’elle perd de grands partenariats avec des sous-traitants de la défense, Anthropic a enregistré un afflux de téléchargements grand public au cours de la dernière semaine, des utilisateurs soutenant sa position morale. Plus d’un million de personnes se sont inscrites à Claude chaque jour cette semaine, selon l’entreprise, ce qui lui a permis de dépasser ChatGPT d’OpenAI et Gemini de Google comme principale application d’IA dans plus de 20 pays sur l’App Store d’Apple.

Le bras de fer avec le Pentagone a également ravivé la rivalité déjà vive entre Anthropic et OpenAI, née lorsque d’anciens dirigeants d’OpenAI, dont Amodei, ont fondé Anthropic en 2021.

Quelques heures après les sanctions imposées à Anthropic par le Pentagone vendredi dernier, OpenAI a annoncé un accord visant de facto à remplacer Anthropic par ChatGPT dans les environnements militaires classifiés.

OpenAI affirme avoir cherché à obtenir des protections similaires contre la surveillance intérieure et les armes entièrement autonomes, mais a ensuite dû amender ses accords, poussant son directeur général Sam Altman à reconnaître qu’il n’aurait pas dû précipiter un accord qui « paraissait opportuniste et bâclé ».

Amodei a également exprimé des regrets quant à son propre rôle dans cette « journée difficile pour l’entreprise », déclarant jeudi qu’il souhaitait « présenter ses excuses directement » pour une note interne envoyée au personnel d’Anthropic, dans laquelle il dénonçait le comportement d’OpenAI et suggérait qu’Anthropic était sanctionnée pour ne pas avoir adressé à Trump des « éloges dignes d’un dictateur ».

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Plainte pour atteinte à la vie privée contre Meta et ses lunettes connectées à IA

Des smartphones pour animaux ? Ce gadget connecté les laisse vous appeler

Les médias d'État iraniens intensifient leur campagne de désinformation dans le conflit US-Iran