Anthropic et OpenAI recrutent des experts en produits chimiques et en explosifs pour renforcer les garde-fous de sécurité de leurs IA.
Les entreprises spécialisées dans l’intelligence artificielle (IA) Anthropic et OpenAI cherchent à recruter des experts en armement et en explosifs afin de prévenir tout mésusage de leurs technologies, selon des offres d’emploi publiées par les deux sociétés.
Anthropic a indiqué dans une publication (source en anglais) sur LinkedIn qu’elle recherchait un spécialiste des politiques en matière d’armes chimiques et d’explosifs, chargé d’éviter un « mésusage catastrophique » de sa technologie en définissant la façon dont ses systèmes d’IA traitent les informations sensibles dans ces domaines.
La personne recrutée chez Anthropic devra concevoir et superviser les garde-fous qui encadrent la réaction des modèles d’IA aux requêtes portant sur les armes chimiques et les explosifs. Elle sera également chargée de mettre en œuvre des « réponses rapides » en cas d’escalade détectée par Anthropic dans ce type de requêtes.
Les candidats doivent justifier d’au moins cinq années d’expérience dans la « défense contre les armes chimiques et/ou les explosifs », ainsi que de compétences sur les « dispositifs de dispersion radiologique », ou bombes sales. Le poste consiste notamment à concevoir (source en anglais) de nouvelles méthodes d’évaluation des risques sur lesquelles la direction de l’entreprise puisse « s’appuyer lors de déploiements à forts enjeux ».
Dans une offre publiée au début du mois, OpenAI indiquait rechercher des chercheurs pour rejoindre son équipe Preparedness, chargée de surveiller les « risques catastrophiques liés aux modèles d’IA de pointe ».
L’entreprise cherchait également un Threat Modeler, à qui reviendrait la responsabilité principale « d’identifier, de modéliser et d’anticiper les risques de frontière » et qui ferait office de « nœud central reliant les perspectives techniques, de gouvernance et de politique publique pour la hiérarchisation, la focalisation et la justification de notre approche des risques de frontière liés à l’IA ».
Euronews Next a contacté Anthropic et OpenAI au sujet de ces offres d’emploi, mais n’a pas reçu de réponse immédiate.
Ces recrutements interviennent après qu’Anthropic a engagé un recours juridique contre le gouvernement américain, qui a désigné l’entreprise comme un « risque pour la chaîne d’approvisionnement », une qualification permettant à l’État de bloquer des contrats ou d’ordonner à ses administrations de ne pas travailler avec elle.
Le conflit a débuté le 24 février, lorsque le Department of War (DOW) a exigé un accès illimité au chatbot Claude d’Anthropic.
Le directeur général Dario Amodei a déclaré (source en anglais) que les contrats passés avec le DOW ne devaient pas couvrir des utilisations de Claude pour de la surveillance de masse sur le territoire national ni son intégration dans des armes entièrement autonomes.
Peu après la rupture avec Anthropic, OpenAI a signé un accord avec le Department of War (DOW) pour déployer son IA dans des environnements classifiés. L’entreprise affirme que ce partenariat s’accompagne de lignes rouges strictes, excluant notamment l’utilisation de ses systèmes pour la surveillance de masse ou pour des armes autonomes.