Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Des employés de Google pressent le PDG de refuser l’usage militaire secret et « inhumain » de l’IA

Salariés de Google demandent à leur PDG de refuser un contrat militaire secret d’IA
Des employés de Google appellent le PDG à refuser un contrat d’IA militaire classé secret Tous droits réservés  Credit: AP Photo/Jeff Chiu, File
Tous droits réservés Credit: AP Photo/Jeff Chiu, File
Par Theo Farrant
Publié le
Partager Discussion
Partager Close Button

Employés de Google alertent : le Pentagone pourrait utiliser cette technologie de façon « inhumaine », pour une surveillance de masse et des armes autonomes létales

Plus de 600 employés de Google ont appelé l’entreprise à rejeter un accord potentiel avec le Pentagone qui permettrait d’utiliser son intelligence artificielle dans le cadre d’opérations militaires secrètes, indique un communiqué publié lundi.

PUBLICITÉ
PUBLICITÉ

« Nous voulons que l’IA profite à l’humanité, et non qu’elle soit utilisée de manière inhumaine ou extrêmement nuisible », peut-on lire dans la lettre ouverte (source en anglais) adressée au directeur général de Google, Sundar Pichai. « Cela inclut les armes létales autonomes et la surveillance de masse, mais va au-delà. »

Cette lettre, signée par des employés de Google DeepMind, de la division Cloud et d’autres entités, intervient alors que le géant technologique négocie avec le département américain de la Défense sur l’éventuelle utilisation de son modèle d’IA Gemini dans des environnements classifiés.

Elle a été signée ouvertement par plus de 20 directeurs, cadres supérieurs et vice-présidents.

« Les travaux classifiés sont, par définition, opaques », a déclaré l’un des employés organisateurs, resté anonyme dans le communiqué.

« À l’heure actuelle, il n’existe aucun moyen de garantir que nos outils ne seront pas utilisés pour provoquer des dommages terribles ou pour éroder les libertés civiles à l’abri du regard du public. Il est question, par exemple, de profiler des individus ou de cibler des civils innocents. »

Cette lettre intervient alors que les entreprises technologiques subissent une pression croissante pour clarifier la manière dont leurs outils d’IA peuvent être utilisés par l’armée et les agences de renseignement, sur fond de différend entre le Pentagone et la start-up d’IA Anthropic.

Anthropic a auparavant poursuivi en justice le département américain de la Défense après avoir été qualifiée de « risque pour la chaîne d’approvisionnement », à la suite de sa demande que ses systèmes ne soient pas utilisés pour la surveillance de masse ou la guerre autonome.

Le directeur général d’Anthropic, Dario Amodei, a déclaré qu’il « ne peut pas, en conscience, accéder à la demande du Pentagone » qui réclamait un accès illimité aux systèmes d’IA de l’entreprise.

« Dans un nombre limité de cas, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques », a écrit Amodei. « Certains usages dépassent aussi tout simplement ce que la technologie actuelle peut faire de manière sûre et fiable. »

En réaction à la décision d’Amodei, le président américain Donald Trump a ordonné aux administrations fédérales de cesser d’utiliser le chatbot Claude de l’entreprise.

Selon les organisateurs de la lettre, Google a proposé des clauses contractuelles visant à empêcher que Gemini soit utilisé pour la surveillance de masse intérieure ou pour des armes autonomes sans contrôle humain approprié.

Le Pentagone a toutefois plaidé pour une formulation plus large de type « tous usages légaux », faisant valoir qu’elle est nécessaire pour préserver sa flexibilité opérationnelle. Des employés estiment qu’il serait difficile de faire respecter de telles garanties dans la pratique, en invoquant les politiques déjà en vigueur au Pentagone qui limitent le contrôle externe de ses systèmes d’IA.

La récente prise de position des salariés de Google rappelle une précédente fronde interne, en 2018, qui avait conduit l’entreprise à se retirer du projet Maven, une initiative du Pentagone visant à utiliser l’IA pour analyser des images de drones.

« Nous pensons que Google n’a pas vocation à faire la guerre », disait la lettre.

« Nous demandons donc l’abandon du projet Maven et l’élaboration, la publication et l’application par Google d’une politique claire stipulant que ni Google ni ses sous-traitants ne développeront jamais de technologies de guerre. »

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Au cœur de Woven City, la ville japonaise futuriste où robots et humains partagent la rue

La Chine bloque le rachat de la start-up d'IA Manus par Meta

Décryptage : pourquoi Elon Musk et Sam Altman s'affrontent au procès OpenAI