« Très bientôt, des modèles d’IA de pointe équiperont tous les réseaux, classifiés ou non, du ministère », a déclaré Pete Hegseth, secrétaire à la Défense, lors d’un discours chez SpaceX.
L’agent conversationnel d’intelligence artificielle d’Elon Musk, Grok, rejoindra le moteur d’IA générative de Google pour opérer au sein du réseau du Pentagone des États-Unis, a annoncé lundi le secrétaire à la Défense américain, Pete Hegseth.
Cette annonce intervient quelques jours seulement après que Grok (intégré à X, le réseau social détenu par Musk) a suscité un tollé mondial et un examen attentif pour avoir généré des images deepfake fortement sexualisées de personnes sans leur consentement.
Cette décision s’inscrit dans une démarche plus large consistant à alimenter cette technologie en développement avec le maximum de données militaires.
« Très bientôt, nous disposerons des modèles d’IA les plus avancés sur tous les réseaux non classifiés et classifiés de notre département », a déclaré Hegseth lors d’un discours prononcé chez SpaceX, l’entreprise de vols spatiaux de Musk, dans le sud du Texas.
La Malaisie et l’Indonésie ont bloqué Grok, tandis que l’autorité indépendante britannique chargée de la sécurité en ligne a annoncé lundi l’ouverture d’une enquête. Grok a limité la génération et la retouche d’images aux utilisateurs payants.
Hegseth a indiqué que Grok serait déployé au sein du département de la Défense plus tard ce mois-ci et a annoncé qu’il rendrait « toutes les données appropriées » issues des systèmes informatiques de l’armée disponibles pour une « exploitation par l’IA ». Il a également précisé que des données provenant de bases de renseignement seraient intégrées aux systèmes d’IA.
La volonté offensive de Hegseth d’adopter une technologie encore en cours de développement tranche avec l’approche de l’administration Biden qui, tout en incitant les agences fédérales à élaborer des politiques et des usages de l’IA, se montrait aussi méfiante face aux abus. Des responsables estimaient qu’il fallait des règles pour garantir que cette technologie, susceptible d’être utilisée pour une surveillance de masse, des cyberattaques ou même des dispositifs autonomes létaux, soit employée de manière responsable.
Fin 2024, l’administration Biden a adopté un cadre qui enjoignait les agences de sécurité nationale à élargir leur recours aux systèmes d’IA les plus avancés, mais interdisait certains usages, tels que des applications qui violeraient des droits civils protégés par la Constitution ou tout système qui automatiserait le déploiement d’armes nucléaires. On ignore si ces interdictions sont toujours en vigueur sous l’administration Trump.
Dans son discours, Hegseth a évoqué la nécessité de rationaliser et d’accélérer les innovations technologiques au sein de l’armée, déclarant : « Nous avons besoin que l’innovation vienne de partout et évolue avec rapidité et détermination. »
Il a souligné que le Pentagone dispose de « données opérationnelles éprouvées au combat, issues de deux décennies d’opérations militaires et de renseignement ».
« L’IA n’est aussi performante que les données qu’elle reçoit, et nous allons nous assurer qu’elles seront disponibles », a déclaré Hegseth.
Le secrétaire à la Défense a déclaré vouloir des systèmes d’IA responsables au sein du Pentagone, tout en ajoutant qu’il écarterait tout modèle d’IA « qui ne permet pas de faire la guerre ».
Hegseth a expliqué que sa vision pour les systèmes d’IA militaires implique qu’ils fonctionnent « sans contraintes idéologiques limitant les usages militaires licites », avant d’ajouter que « l’IA du Pentagone ne sera pas woke ».
Musk a développé et présenté Grok comme une alternative aux interactions d’« IA woke » proposées, selon lui, par des chatbots concurrents comme Gemini de Google ou ChatGPT d’OpenAI. En juillet, Grok a également suscité la controverse après avoir semblé tenir des propos antisémites louant Adolf Hitler et avoir relayé plusieurs publications antisémites.
Le Pentagone n’a pas immédiatement répondu aux questions sur les problèmes liés à Grok.