Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Géants de la tech et ex-chefs militaires soutiennent le recours d’Anthropic contre Washington

ARCHIVES - Le site web et l'application mobile d'Anthropic sont visibles sur cette photo, à New York, le 5 juillet 2024
PHOTO D'ARCHIVES - Le site web et l'application mobile d'Anthropic sont visibles sur cette photo, à New York, le 5 juillet 2024 Tous droits réservés  AP Photo/Richard Drew, File
Tous droits réservés AP Photo/Richard Drew, File
Par Anna Desmarais & AP
Publié le
Partager Discussion
Partager Close Button

Le Département de la Guerre a qualifié Anthropic de « risque pour la chaîne d’approvisionnement », ce qui lui permet de les exclure des appels d’offres et d’interdire aux entreprises de travailler avec eux.

Microsoft, d’anciens responsables militaires, et des think tanks spécialisés dans l’intelligence artificielle (IA) soutiennent Anthropic dans sa procédure visant à faire lever la désignation de l’administration Trump qui qualifie l’entreprise de « risque pour la chaîne d’approvisionnement ».

PUBLICITÉ
PUBLICITÉ

Les actions du Department of War (DOW) des États-Unis « forcent les contractants du gouvernement fédéral à se conformer à des directives vagues et mal définies qui n’avaient encore jamais été utilisées publiquement contre une entreprise américaine », indique le mémoire juridique de Microsoft.

Le dépôt de Microsoft précise que cette qualification de risque pour la chaîne d’approvisionnement « pourrait entraîner de graves conséquences économiques contraires à l’intérêt public », et demande au juge de suspendre temporairement cette désignation.

Ces dépôts interviennent après qu’Anthropic a engagé la semaine dernière un recours en justice contre le Department of War des États-Unis.

La qualification d’Anthropic comme risque pour la chaîne d’approvisionnement permet au gouvernement d’exclure l’entreprise de l’attribution de contrats, d’écarter ses produits et d’empêcher les contractants principaux de recourir à ce fournisseur.

Anthropic était, jusqu’à récemment, la seule entreprise de son secteur autorisée à être utilisée sur des réseaux militaires classifiés. Son chatbot d’IA avait été déployé dans l’ensemble des réseaux d’information classifiés du gouvernement américain, installé dans des laboratoires nucléaires nationaux et chargé d’analyses de renseignement pour le Department of War.

Qui soutient Anthropic ?

Plusieurs mémoires conjoints en soutien à Anthropic ont été déposés par des responsables militaires américains, des géants de la tech et des organisations spécialisées dans l’IA.

Selon l’un de ces textes, le comportement du secrétaire américain à la Guerre, Pete Hegseth, à l’encontre d’Anthropic « menace les principes d’État de droit qui ont longtemps renforcé nos forces armées ». Ce mémoire est soutenu par Michael Hayden, ancien directeur de la Central Intelligence Agency (CIA) américaine.

Les signataires accusent également Hegseth de détourner le pouvoir de l’État pour exercer des « représailles contre une entreprise privée qui a déplu à la direction ».

Le mémoire des anciens responsables militaires avertit que « l’incertitude soudaine » visant une technologie largement intégrée aux plateformes militaires pourrait perturber la planification et mettre en danger les soldats lors d’opérations en cours, comme la guerre en Iran.

Un autre mémoire (source en anglais), déposé au nom de 37 ingénieurs en IA ayant auparavant travaillé chez OpenAI et DeepMind de Google, qualifie les actions du DOW « d’usage abusif et arbitraire du pouvoir, aux conséquences graves pour notre secteur ».

« Si elle devait se poursuivre, cette tentative de punir l’une des principales entreprises américaines d’IA aurait immanquablement des conséquences pour la compétitivité industrielle et scientifique des États-Unis dans le domaine de l’intelligence artificielle et au-delà, indique le texte. Et elle refroidirait les délibérations ouvertes dans notre domaine sur les risques et les bénéfices des systèmes d’IA actuels. »

Un autre mémoire estime qu’il n’est pas difficile « d’imaginer un monde dans lequel le gouvernement contrôlerait de fait ce que tous les Américains font et disent » si l’État est en mesure de dicter la politique d’Anthropic.

Ce mémoire conjoint (source en anglais), signé par des organisations comme l’Electronic Frontier Foundation et le Cato Institute, affirme que les actions du gouvernement violent le Premier amendement, la partie de la Constitution qui garantit la liberté d’expression.

« Les actions du gouvernement […] menacent la vitalité et l’indépendance de notre démocratie », peut-on y lire.

Comment le conflit a-t-il commencé ?

Le différend entre Anthropic et l’armée américaine a commencé lorsque l’entreprise a refusé de donner aux militaires un accès illimité à son chatbot d’IA, Claude. Le gouvernement a alors accordé 48 heures à Anthropic pour s’y conformer, sous peine de sanctions.

Le directeur général d’Anthropic, Dario Amodei, explique que l’entreprise a fixé deux lignes rouges aux militaires : que sa technologie ne soit pas utilisée pour une surveillance de masse sur le territoire national ni intégrée à des armes entièrement autonomes.

Amodei a déclaré dans un communiqué (source en anglais) publié le 26 février qu’il « ne peut, en conscience, accéder à la demande du Pentagone » visant à obtenir un accès illimité aux systèmes d’IA de l’entreprise.

« Dans un nombre limité de cas, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques », écrit-il. « Certains usages dépassent tout simplement le cadre de ce que la technologie actuelle peut faire de manière sûre et fiable », ajoute-t-il.

Le mémoire déposé par Microsoft appuie les lignes rouges d’Anthropic, affirmant que « l’IA américaine ne devrait pas être utilisée pour mener une surveillance de masse sur le territoire national ni pour déclencher une guerre sans contrôle humain », et soulignant que cette position est « conforme au droit ».

Claude sera également progressivement retiré des opérations militaires au cours des six prochains mois, selon une déclaration de Hegseth.

Amodei a indiqué dans un communiqué que le Department of War est libre de choisir de travailler, sur des contrats plus alignés sur sa vision, avec d’autres partenaires, mais que « compte tenu de la valeur considérable que la technologie d’Anthropic apporte à nos forces armées, nous espérons qu’il reviendra sur sa décision ».

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Guerre au Moyen-Orient : les centres de données, nouvelle cible stratégique

De l'IA contre l'IA à la menace quantique : les enjeux de la cybersécurité selon Thales

En Chine, l'école des robots où les humanoïdes apprennent les tâches quotidiennes