Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Anthropic poursuit le Pentagone pour l'avoir jugée risque pour la chaîne d'approvisionnement

Des pages du site d’Anthropic et les logos de l’entreprise s’affichent sur un écran d’ordinateur à New York, le jeudi 26 février 2026.
Des pages du site web d'Anthropic et les logos de l'entreprise sont affichés sur un écran d'ordinateur à New York, le jeudi 26 février 2026. Tous droits réservés  AP Photo/Patrick Sison
Tous droits réservés AP Photo/Patrick Sison
Par Pascale Davies avec AP
Publié le
Partager Discussion
Partager Close Button

La semaine dernière, le Pentagone a classé Anthropic comme un risque pour la chaîne d’approvisionnement, obligeant les entreprises à cesser d’utiliser Claude au sein du département de la Défense.

Anthropic a attaqué en justice le département américain de la Défense devant la justice lundi (source en anglais)après que l’agence l’a classée la semaine dernière comme risque pour la chaîne d’approvisionnement.

PUBLICITÉ
PUBLICITÉ

La plainte intervient après un bras de fer entre Anthropic et le DoD sur la question de savoir si l’armée devait disposer d’un accès illimité aux systèmes d’IA d’Anthropic.

Le Pentagone a sanctionné la semaine dernière le concepteur de Claude, le jugeant comme un risque pour la chaîne d’approvisionnement, ce qui signifie que les entreprises doivent cesser d’utiliser Claude dans les cas directement liés au département.

Le président Donald Trump a également déclaré qu’il ordonnerait aux agences fédérales de cesser d’utiliser Claude, tout en accordant au Pentagone six mois pour retirer progressivement un produit profondément intégré aux systèmes militaires classifiés, y compris ceux utilisés dans la guerre en Iran.

« Nous ne pensons pas que cette décision soit juridiquement fondée et nous n’avons d’autre choix que de la contester devant les tribunaux », a écrit le directeur général d’Anthropic, Dario Amodei, dans un billet de blog publié jeudi (source en anglais).

Le recours demande à un juge d’annuler cette « étiquette de risque pour la chaîne d’approvisionnement » et d’interdire aux agences fédérales de l’appliquer.

« La Constitution n’autorise pas le gouvernement à utiliser son immense pouvoir pour punir une entreprise pour une prise de position protégée », a déclaré Anthropic dans sa requête. « Anthropic se tourne vers l’appareil judiciaire en dernier recours pour faire valoir ses droits et mettre fin à la campagne illégale de représailles de l’exécutif. »

Le département de la Défense a refusé de commenter lundi, invoquant une politique de non-commentaire sur les affaires en contentieux, a rapporté l’AP.

Anthropic affirme avoir cherché à empêcher que sa technologie soit utilisée pour deux usages de haut niveau : la surveillance de masse des Américains et des armes entièrement autonomes.

Le secrétaire à la Défense Pete Hegseth et d’autres responsables ont publiquement insisté pour que l’entreprise accepte « tous les usages légaux » de Claude et ont brandi la menace de sanctions si Anthropic ne s’y conformait pas.

Anthropic est à l’origine du chatbot Claude et est la dernière de ses pairs à ne pas fournir sa technologie au nouveau réseau interne de l’armée américaine.

Anthropic a remporté en juillet dernier un contrat de 200 millions de dollars (167 millions d’euros) avec le département américain de la Défense pour « prototyper des capacités d’IA de pointe qui renforcent la sécurité nationale des États-Unis », a indiqué l’entreprise.

L’entreprise a conclu un(source en anglais)target="_blank" rel="noopener noreferrer nofollow" href="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/" tooltip="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/"> partenariat avec Palantir Technologies en 2024 pour intégrer Claude aux logiciels de renseignement et de défense du gouvernement américain.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Les compagnons IA de Dassault Systèmes réinventent l'industrie

Australie: contrôles d'âge pour chatbots IA, jeux adultes et moteurs de recherche

Un réseau social européen financé par le contribuable peut-il fonctionner ?