L’entreprise d’IA Anthropic et le Pentagone américain sont dans l’impasse. Voici ce qu’il faut savoir.
Le gouvernement des États-Unis menace de mettre fin à ses contrats militaires avec l’entreprise Anthropic à moins qu’elle n’ouvre sa technologie d’IA à un usage militaire sans restrictions, mais la société de la tech tient bon.
Le directeur général d’Anthropic, Dario Amodei, a déclaré dans un communiqué (source en anglais) publié le 26 février qu’il « ne peut, en son âme et conscience, accéder à la demande du Pentagone » visant à obtenir un accès illimité aux systèmes d’IA de l’entreprise.
« Dans un nombre restreint de cas, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques », écrit-il. « Certains usages dépassent aussi tout simplement le champ de ce que la technologie actuelle peut faire de manière sûre et fiable. »
Cette prise de position d’Amodei intervient moins de 24 heures avant l’échéance fixée à vendredi par le Département de la Guerre, qui exige un accès sans entrave à Claude.
Anthropic développe le chatbot Claude et est la dernière des grandes entreprises du secteur à ne pas fournir sa technologie à un nouveau réseau interne de l’armée américaine.
Anthropic a décroché en juillet dernier un contrat de 200 millions de dollars (167 millions d’euros) avec le Département américain de la Défense pour « prototyper des capacités d’IA de pointe qui renforcent la sécurité nationale des États-Unis », a indiqué Anthropic. En 2024, l’entreprise a noué un partenariat (source en anglais) avec Palantir Technologies afin d’intégrer Claude aux logiciels de renseignement américains.
Le secrétaire à la Défense, Pete Hegseth, aurait déclaré le 24 février qu’il mettrait fin à ce contrat de 200 millions de dollars (167 millions d’euros) et qualifierait l’entreprise de « risque pour la chaîne d’approvisionnement » si Anthropic ne se pliait pas à ses exigences.
Si Anthropic est désignée comme un risque pour la chaîne d’approvisionnement au titre de la loi (source en anglais) américaine sur les marchés publics, le gouvernement pourra exclure l’entreprise de l’attribution de contrats, retirer ses produits de toute procédure de sélection et enjoindre aux titulaires principaux de ne pas recourir à ce fournisseur.
Selon les comptes rendus de la rencontre entre Hegseth et Amodei, le responsable aurait également brandi la menace de recourir contre l’entreprise au Defense Production Act (source en anglais), une loi qui confère au président américain de vastes pouvoirs pour ordonner aux entreprises privées de donner la priorité aux besoins de sécurité nationale, y compris en matière d’accès à leur technologie.
Dans sa déclaration, Amodei affirme que les contrats passés avec le Département de la Guerre ne devraient pas couvrir des cas où Claude serait utilisé pour une surveillance de masse sur le territoire américain ou intégré à des armes entièrement autonomes.
Il explique que ce sont précisément ces garde-fous qui, selon lui, motivent la menace du Département de retirer Anthropic de l’usage militaire américain.
Dans ce texte, Amodei juge ces deux menaces « intrinsèquement contradictoires », puisque l’une présente Anthropic comme un risque pour la sécurité et l’autre affirme que Claude est « essentiel à la sécurité nationale ».
Il reconnaît que le Département de la Guerre est libre de choisir ses partenaires pour des contrats davantage en phase avec sa vision, mais ajoute que « compte tenu de la valeur considérable que la technologie d’Anthropic apporte à nos forces armées, nous espérons qu’ils reconsidéreront leur position ».
Le chatbot d’IA a été déployé sur l’ensemble des réseaux d’informations classifiées du gouvernement américain, mis en service dans les laboratoires nucléaires nationaux et réalise directement des analyses de renseignement pour le Département de la Guerre.
Euronews Next a sollicité le Département de la Guerre du gouvernement américain, qui n’a pas donné suite dans l’immédiat.
Anthropic revient sur sa promesse phare en matière de sécurité
Anthropic se présente de longue date comme l’acteur le plus responsable et le plus soucieux de sécurité parmi les grands groupes de l’IA, depuis que ses fondateurs ont quitté OpenAI pour créer la start-up en 2021.
Mardi, Anthropic a indiqué dans un entretien au magazine Time qu’elle renonçait à son engagement de sécurité consistant à ne pas lancer de système d’IA tant qu’elle ne pourrait pas garantir que les mesures de protection sont suffisantes.
À la place, elle a dévoilé une nouvelle version de sa politique de montée en puissance responsable, qui décrit le cadre retenu par l’entreprise pour réduire les risques catastrophiques liés à l’IA.
Jared Kaplan, directeur scientifique d’Anthropic, a expliqué au magazine qu’empêcher l’entreprise d’entraîner de nouveaux modèles pendant que ses concurrents avancent sans garde-fous ne l’aiderait pas à rester dans la course à l’IA.
« Si un développeur d’IA suspendait ses travaux pour mettre en place des mesures de sécurité alors que d’autres poursuivent l’entraînement et le déploiement de systèmes d’IA sans fortes mesures d’atténuation, cela pourrait aboutir à un monde moins sûr », peut-on lire dans la nouvelle politique d’Anthropic.
« Les développeurs dotés des protections les plus faibles imposeraient le rythme, et les acteurs responsables perdraient la capacité de mener des recherches sur la sécurité et de faire progresser l’intérêt général. »
Ce document distingue les ambitions d’Anthropic en matière de normes de sécurité pour l’ensemble du secteur de ses propres objectifs d’entreprise, au sein desquels la sécurité demeure une priorité.
Anthropic précise que cette nouvelle politique implique l’élaboration de feuilles de route de sécurité « ambitieuses mais réalisables » pour ses modèles, ainsi que la publication de rapports de risques détaillant les menaces anticipées et indiquant si la mise sur le marché d’un modèle se justifie.
Cet article a été mis à jour le 27 février.