Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Pourquoi Anthropic et Washington se déchirent autour d'un contrat militaire

PHOTO D'ARCHIVES - Le ministre de la Défense Pete Hegseth devant le Pentagone lors d'une cérémonie d'accueil pour son homologue japonais, à Washington, le 15 janvier 2026.
PHOTO D'ARCHIVES - Le secrétaire à la Défense Pete Hegseth devant le Pentagone, lors d'une cérémonie d'accueil du ministre japonais, à Washington, le 15 janvier 2026. Tous droits réservés  AP Photo/Kevin Wolf, File
Tous droits réservés AP Photo/Kevin Wolf, File
Par Anna Desmarais avec AP
Publié le
Partager Discussion
Partager Close Button

La jeune pousse spécialisée dans l’IA Anthropic et le Pentagone américain sont dans l’impasse : voici les clés pour comprendre l'affrontement.

Le gouvernement des États-Unis menace de mettre fin à ses contrats militaires avec l'entreprise Anthropic si celle-ci n'ouvre pas sa technologie d'IA à un usage militaire sans restriction.

PUBLICITÉ
PUBLICITÉ

Anthropic développe le chatbot Claude et est la dernière des grandes entreprises du secteur à ne pas fournir sa technologie à un nouveau réseau interne de l'armée américaine.

Le directeur général, Dario Amodei, a à plusieurs reprises exprimé ses préoccupations éthiques face à l'utilisation non encadrée de l'IA par les pouvoirs publics, notamment les dangers liés aux drones armés entièrement autonomes et à la surveillance de masse assistée par l'IA, susceptible de traquer toute forme de dissidence.

Anthropic a remporté en juillet dernier un contrat de 200 millions de dollars (167 millions d'euros) passé par le Département américain de la Défense pour « prototyper des capacités d'IA de pointe afin de renforcer la sécurité nationale des États-Unis », a indiqué la société. L'entreprise a conclu en 2024 un partenariat (source en anglais) avec Palantir Technologies afin d'intégrer Claude aux logiciels de renseignement utilisés par le gouvernement américain.

Selon la presse, le secrétaire à la Défense, Pete Hegseth, a déclaré mardi qu'il mettrait fin au contrat de 200 millions de dollars (167 millions d'euros) et qualifierait l'entreprise de « risque pour la chaîne d'approvisionnement » si Anthropic ne se conformait pas aux demandes.

Si Anthropic est désignée comme un risque pour la chaîne d'approvisionnement au titre du droit (source en anglais) américain des marchés publics, le gouvernement pourrait exclure l'entreprise de l'attribution des contrats, écarter ses produits de l'examen des offres et enjoindre aux contractants principaux de ne pas recourir à ce fournisseur.

Les informations sur la réunion de Hegseth avec Dario Amodei, le PDG et cofondateur d'Anthropic, indiquent également que Hegseth a menacé d'invoquer à l'encontre de l'entreprise le Defense Production Act (source en anglais), une loi qui confère au président américain de vastes pouvoirs pour ordonner aux entreprises privées de donner la priorité aux besoins de sécurité nationale, y compris l'accès à leur technologie.

Euronews Next a sollicité Anthropic et le Département de la Défense américain pour confirmer ces accusations, mais n'avait pas reçu de réponse immédiate.

Anthropic revient sur son engagement central en matière de sécurité

Depuis sa création en 2021, après le départ de ses fondateurs d'OpenAI, Anthropic se présente comme l'un des acteurs les plus responsables et les plus soucieux de la sécurité parmi les grandes entreprises de l'IA.

Mardi, Anthropic a déclaré dans un entretien au magazine Time qu'elle renonçait à son engagement de ne pas lancer de système d'IA tant qu'elle ne pourrait pas garantir que les dispositifs de sécurité étaient suffisants.

Elle a présenté à la place une nouvelle version de sa politique de montée en puissance responsable, qui définit le cadre retenu par l'entreprise pour atténuer les risques catastrophiques liés à l'IA.

Jared Kaplan, directeur scientifique d'Anthropic, a expliqué au magazine que freiner l'entreprise dans l'entraînement de nouveaux modèles alors que ses concurrents avancent sans garde-fous ne l'aiderait pas à rester dans la course à l'IA.

« Si un développeur d'IA mettait en pause ses travaux pour mettre en place des mesures de sécurité tandis que d'autres poursuivent l'entraînement et le déploiement de systèmes d'IA sans fortes mesures d'atténuation, cela pourrait aboutir à un monde moins sûr », peut-on lire dans la nouvelle politique d'Anthropic.

« Les développeurs dotés des protections les plus faibles imposeraient le rythme, et les développeurs responsables perdraient leur capacité à mener des recherches en matière de sécurité et à faire progresser l'intérêt public. »

Cette politique distingue les ambitions d'Anthropic pour faire progresser les normes de sécurité dans l'ensemble du secteur de ses propres objectifs d'entreprise, au sein desquels la sécurité reste une priorité.

Selon Anthropic, ce nouveau cadre implique l'élaboration de feuilles de route de sécurité « ambitieuses mais réalistes » pour ses modèles, ainsi que la publication de rapports de risques détaillant les menaces anticipées et indiquant si la mise sur le marché d'un modèle est justifiée.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Chiens-robots et drones envahissent une station de métro en Chine: le futur du rail ?

Les réseaux sociaux sont-ils conçus pour rendre accro, et peut-on déjouer l'algorithme ?

Pourquoi Anthropic et Washington se déchirent autour d'un contrat militaire