La semaine dernière, le Pentagone a classé Anthropic comme un risque pour la chaîne d’approvisionnement, obligeant les entreprises à cesser d’utiliser Claude au sein du département de la Défense.
Anthropic a attaqué en justice le département américain de la Défense devant la justice lundi (source en anglais)après que l’agence l’a classée la semaine dernière comme risque pour la chaîne d’approvisionnement.
La plainte intervient après un bras de fer entre Anthropic et le DoD sur la question de savoir si l’armée devait disposer d’un accès illimité aux systèmes d’IA d’Anthropic.
Le Pentagone a sanctionné la semaine dernière le concepteur de Claude, le jugeant comme un risque pour la chaîne d’approvisionnement, ce qui signifie que les entreprises doivent cesser d’utiliser Claude dans les cas directement liés au département.
Le président Donald Trump a également déclaré qu’il ordonnerait aux agences fédérales de cesser d’utiliser Claude, tout en accordant au Pentagone six mois pour retirer progressivement un produit profondément intégré aux systèmes militaires classifiés, y compris ceux utilisés dans la guerre en Iran.
« Nous ne pensons pas que cette décision soit juridiquement fondée et nous n’avons d’autre choix que de la contester devant les tribunaux », a écrit le directeur général d’Anthropic, Dario Amodei, dans un billet de blog publié jeudi (source en anglais).
Le recours demande à un juge d’annuler cette « étiquette de risque pour la chaîne d’approvisionnement » et d’interdire aux agences fédérales de l’appliquer.
« La Constitution n’autorise pas le gouvernement à utiliser son immense pouvoir pour punir une entreprise pour une prise de position protégée », a déclaré Anthropic dans sa requête. « Anthropic se tourne vers l’appareil judiciaire en dernier recours pour faire valoir ses droits et mettre fin à la campagne illégale de représailles de l’exécutif. »
Le département de la Défense a refusé de commenter lundi, invoquant une politique de non-commentaire sur les affaires en contentieux, a rapporté l’AP.
Anthropic affirme avoir cherché à empêcher que sa technologie soit utilisée pour deux usages de haut niveau : la surveillance de masse des Américains et des armes entièrement autonomes.
Le secrétaire à la Défense Pete Hegseth et d’autres responsables ont publiquement insisté pour que l’entreprise accepte « tous les usages légaux » de Claude et ont brandi la menace de sanctions si Anthropic ne s’y conformait pas.
Anthropic est à l’origine du chatbot Claude et est la dernière de ses pairs à ne pas fournir sa technologie au nouveau réseau interne de l’armée américaine.
Anthropic a remporté en juillet dernier un contrat de 200 millions de dollars (167 millions d’euros) avec le département américain de la Défense pour « prototyper des capacités d’IA de pointe qui renforcent la sécurité nationale des États-Unis », a indiqué l’entreprise.
L’entreprise a conclu un(source en anglais)target="_blank" rel="noopener noreferrer nofollow" href="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/" tooltip="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/"> partenariat avec Palantir Technologies en 2024 pour intégrer Claude aux logiciels de renseignement et de défense du gouvernement américain.