Comment l'intelligence artificielle va changer la guerre

Un drone.
Un drone. Tous droits réservés frame
Par Blanca Castro
Partager cet articleDiscussion
Partager cet articleClose Button
Copier/coller le lien embed de la vidéo de l'article :Copy to clipboardLien copié

L'Ukraine lance Brave 1, une initiative visant à développer sa technologie militaire avec l'aide d'experts du monde entier.

PUBLICITÉ

Son objectif : mettre au point des systèmes de défense et de cybersécurité grâce notamment à la production d'armements non traditionnels, tels que les armes automatisées ou autonomes. Avec le boom de l'intelligence artificielle, elles pourraient fonctionner de manière indépendante et changer à jamais les opérations militaires. Mais leur mise en œuvre future est controversée. 

"Il y a constamment des missions avortées pour des raisons éthiques, juridiques, techniques ou simplement en raison de l'évolution du combat lui-même", explique Cesar Pintado, professeur à l'Observatoire du renseignement, de la sécurité et de la défense du CISDE.

"Avec un opérateur humain, il y a toujours la possibilité, en théorie, qu'un humain puisse faire preuve de compassion, d'empathie et de jugement humain, alors qu'un système formé à partir de données et préprogrammé pour faire quelque chose n'a pas cette possibilité", juge Anna Nadibaidze, titulaire d'un doctorat au Centre d'études sur la guerre et au département de sciences politiques et de gestion publique de l'université du Danemark du Sud

Dans un avenir proche des opérations militaires faisant appel à un essaim de drones, des chiens robots ou des robots humanoïdes sont largement envisageables. Mais il existe un certain nombre de risques : lorsque l'on utilise l'intelligence artificielle, les algorithmes peuvent présenter des biais dans leurs modèles de données, tels que des erreurs d'identification faciale biométrique ou l'absence d'une évaluation approfondie de leur environnement.

"Mais que se passe-t-il si ce véhicule blindé a été capturé par sa propre force ou l'inverse ? Que se passe-t-il si ce modèle de char est également utilisé par des forces alliées ou s'il se trouve momentanément à côté de troupes alliées ou contre des zones fermées, comme un temple ou une école ?", avertit Cesar Pintado.

"L'idée que les robots tueurs acquièrent une conscience propre est une idée déjà présente dans la science-fiction , mais ce n'est pas vraiment ce sur quoi le débat devrait porter", estime Anna Nadibaidze.

Les scénarios inexplorés de l'intelligence artificielle dans la guerre suscitent de vives inquiétudes au sein de la communauté internationale. Au niveau civil, des experts en IA ont appelé à une suspension de six mois du développement de cette technologie afin d'en étudier les conséquences possibles. Anna Nadibaidze appelle les pays à accélérer la réglementation de cette technologie.

"Les gouvernements du monde entier sont très intéressés et visiblement désireux d'investir et de continuer à investir beaucoup d'argent dans ces technologies. Il est urgent d'adopter des règles juridiquement contraignantes et de relever ces défis, car les réglementations internationales actuelles et le droit humanitaire international ne sont pas suffisants pour cela".

Partager cet articleDiscussion

À découvrir également

Six mois après l'appel des experts à une pause dans les expériences d'IA, où en sommes-nous ?

La Chine achète à la Slovaquie un brevet d'exploitation pour construire des voitures volantes

Suspension du blocage de Telegram en Espagne en attendant un audit