Les robots "ne doivent pas avoir le permis de tuer" (Human Rights Watch)

Les robots "ne doivent pas avoir le permis de tuer" (Human Rights Watch)
Tous droits réservés 
Par Nathan Lautier
Partager cet articleDiscussion
Partager cet articleClose Button

Pour le rapport de Human Rights Watch, l’homme doit toujours avoir la décision finale sur les questions de vie ou de mort, afin d’assurer les

PUBLICITÉ

Pour le rapport de Human Rights Watch, l’homme doit toujours avoir la décision finale sur les questions de vie ou de mort, afin d’assurer les responsabilités morales et juridiques inhérentes.

Selon le rapport, “même l’intelligence artificielle la plus qualifiée serait incapable d‘évaluer les implications éthiques de tuer un combattant blessé ou peser le risque de décès de civils lors d’une offensive militaire“. L’utilisation de robot empêcherait aussi des poursuites juridiques, et donnerait donc libre court aux dérives.

L’avertissement, délivré aux pays participant à la Convention sur les armes classiques, tombe à un moment où l’utilisation de la technologie est très controversée.

Au moins 27 Etats soutiennent l’utilisation de machines de combat autonomes afin d‘être plus précis que les machines contrôlées par les humains. Contre cela, neuf Etats seulement ont exigé l’interdiction d’une telle technologie.

Le rapport met en évidence le risque de remettre à des ordinateurs le processus de prise de décision : ‘’Les humains ne peuvent pas contrôler où les robots vont ou qui ils tuent. Ce manque de contrôle peut conduire à des victimes non intentionnelles ‘’

Le rapport complet est accessible ici

Partager cet articleDiscussion

À découvrir également

Guerre à Gaza : de nouveaux pourparlers de paix prévus ce dimanche en Egypte

La Norvège va augmenter son budget militaire de près de 52 milliards d'euros sur 12 ans

Israël continue inlassablement de frapper Gaza