Les robots "ne doivent pas avoir le permis de tuer" (Human Rights Watch)

Les robots "ne doivent pas avoir le permis de tuer" (Human Rights Watch)
Par Nathan Lautier
Partager cet articleDiscussion
Partager cet articleClose Button

Pour le rapport de Human Rights Watch, l’homme doit toujours avoir la décision finale sur les questions de vie ou de mort, afin d’assurer les

PUBLICITÉ

Pour le rapport de Human Rights Watch, l’homme doit toujours avoir la décision finale sur les questions de vie ou de mort, afin d’assurer les responsabilités morales et juridiques inhérentes.

Selon le rapport, “même l’intelligence artificielle la plus qualifiée serait incapable d‘évaluer les implications éthiques de tuer un combattant blessé ou peser le risque de décès de civils lors d’une offensive militaire“. L’utilisation de robot empêcherait aussi des poursuites juridiques, et donnerait donc libre court aux dérives.

L’avertissement, délivré aux pays participant à la Convention sur les armes classiques, tombe à un moment où l’utilisation de la technologie est très controversée.

Au moins 27 Etats soutiennent l’utilisation de machines de combat autonomes afin d‘être plus précis que les machines contrôlées par les humains. Contre cela, neuf Etats seulement ont exigé l’interdiction d’une telle technologie.

Le rapport met en évidence le risque de remettre à des ordinateurs le processus de prise de décision : ‘’Les humains ne peuvent pas contrôler où les robots vont ou qui ils tuent. Ce manque de contrôle peut conduire à des victimes non intentionnelles ‘’

Le rapport complet est accessible ici

Partager cet articleDiscussion

À découvrir également

Russie : plusieurs incidents ont emmaillé le premier jour de l'élection présidentielle

Les importations d'armes en forte hausse en Europe, France 2e au monde

Le double combat des soldates ukrainiennes