Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Un tribunal rejette l'appel d'Anthropic contre le label de risque pour la chaîne d'approvisionnement

ARCHIVES - Le site web et l'application mobile d'Anthropic, à New York, le 5 juillet 2024
PHOTO D'ARCHIVE - Le site et l'application mobile d'Anthropic apparaissent sur cette photo, à New York, le 5 juillet 2024 Tous droits réservés  AP Photo/Richard Drew, File
Tous droits réservés AP Photo/Richard Drew, File
Par Anna Desmarais & AP
Publié le
Partager Discussion
Partager Close Button

Anthropic refuse d'accorder au gouvernement américain un accès illimité à son chatbot Claude: le débat sur la régulation de l'IA s'ouvre

Un tribunal américain a rejeté la demande de la société américaine d’intelligence artificielle (IA) Anthropic visant à la protéger contre son inscription par le gouvernement comme risque pour la chaîne d’approvisionnement. Un tel label n’avait encore jamais été appliqué à une entreprise américaine.

PUBLICITÉ
PUBLICITÉ

L’administration Trump a qualifié l’entreprise d’IA de risque pour la chaîne d’approvisionnement et ordonné aux agents fédéraux de cesser d’utiliser l’assistant d’IA Claude d’Anthropic en février, après que l’entreprise a refusé d’autoriser un accès militaire illimité à son modèle.

Ce label empêche les sous-traitants qui travaillent avec le Pentagone d’utiliser les modèles d’IA de l’entreprise dans le cadre de contrats avec le Département de la Défense.

Parmi les restrictions contestées figurent l’utilisation de Claude pour des armes autonomes létales sans supervision humaine et la surveillance de masse des Américains.

En 2025, Anthropic a signé un contrat de 200 millions de dollars (171,5 millions d’euros) avec le Pentagone pour déployer sa technologie au sein des systèmes de l’armée.

À la suite de cet accord, le chatbot d’IA avait été déployé dans l’ensemble des réseaux d’informations classifiées du gouvernement américain, installé dans les laboratoires nationaux du nucléaire et il réalisait directement des analyses de renseignement pour le Département de la Défense.

Ce revers essuyé par Anthropic à Washington intervient après que l’entreprise a remporté une autre action en justice portant sur les mêmes questions devant un tribunal de San Francisco, ce qui avait contraint l’administration du président Donald Trump à retirer ce label.

Anthropic a déposé les deux recours à San Francisco et à Washington le mois dernier et a accusé l’administration Trump de mener une « campagne de représailles illégale ».

Dans un mémoire (source en anglais) déposé en mars, le Département de la Défense écrivait qu’Anthropic pourrait « tenter de désactiver sa technologie ou de modifier préventivement le comportement de son modèle » avant ou pendant une « opération de guerre » si l’entreprise « estime que ses “lignes rouges” sont franchies ».

La formation de la cour d’appel du circuit de Washington a estimé qu’elle n’avait aucune raison d’annuler les mesures prises par l’administration Trump car « le montant précis du préjudice financier subi par Anthropic n’est pas clair ». La cour d’appel doit toutefois entendre de nouveaux éléments dans cette affaire en mai.

« Nous sommes reconnaissants au tribunal d’avoir reconnu que ces questions doivent être réglées rapidement et restons convaincus que la justice finira par reconnaître que ces désignations en matière de chaîne d’approvisionnement étaient illégales », a déclaré Anthropic dans un communiqué adressé à l’agence Associated Press.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Meta lance Muse Spark, son premier grand modèle d’IA depuis sa frénésie de dépenses

Des chercheurs suisses testent un robot-chien pour accélérer l'exploration lunaire et martienne

Un tribunal rejette l'appel d'Anthropic contre le label de risque pour la chaîne d'approvisionnement