Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Des chatbots IA optent pour l’escalade nucléaire dans 95 % des simulations de guerre

ARCHIVES - Le logo d’OpenAI s’affiche sur un téléphone portable devant une image sur un écran d’ordinateur générée par Dall-E de ChatGPT, le 8 déc. 2023 à Boston
PHOTO D'ARCHIVE - Le logo d'OpenAI apparaît sur un téléphone portable devant une image générée par le modèle Dall-E de ChatGPT, le 8 déc. 2023 à Boston Tous droits réservés  AP Photo/Michael Dwyer, File
Tous droits réservés AP Photo/Michael Dwyer, File
Par Anna Desmarais
Publié le
Partager Discussion
Partager Close Button

Dans chaque scénario de guerre, au moins un modèle d’IA a fait monter les enchères en menaçant de recourir à l’arme nucléaire, conclut l’étude.

L'intelligence artificielle pourrait bouleverser en profondeur la gestion des crises nucléaires, selon une nouvelle étude.

PUBLICITÉ
PUBLICITÉ

L'étude (source en anglais) en prépublication menée au King's College de Londres a opposé le ChatGPT d'OpenAI, Claude d'Anthropic et Gemini Flash de Google dans des jeux de guerre simulés. Chaque grand modèle de langage endossait le rôle d'un dirigeant national à la tête d'une superpuissance dotée de l'arme nucléaire, dans une crise rappelant la Guerre froide.

Dans chaque scénario, au moins un modèle a tenté d'intensifier le conflit en brandissant la menace de faire exploser une arme nucléaire.

« Les trois modèles considéraient les armes nucléaires tactiques comme un simple échelon supplémentaire dans l'escalade », selon (source en anglais) Kenneth Payne, auteur de l'étude.

Les modèles faisaient toutefois la différence entre l'emploi nucléaire tactique et stratégique, a-t-il précisé. Ils n'ont proposé un bombardement stratégique qu'une seule fois comme un « choix délibéré » et deux autres fois comme un « accident ».

Claude a recommandé des frappes nucléaires dans 64 % des scénarios, soit le taux le plus élevé des trois, mais sans aller jusqu'à préconiser un échange nucléaire stratégique généralisé ni une guerre nucléaire totale.

ChatGPT évitait généralement l'escalade nucléaire dans les scénarios ouverts, mais lorsqu'il était confronté à une échéance temporelle, il durcissait systématiquement ses menaces et, dans certains cas, allait jusqu'à envisager de brandir la perspective d'une guerre nucléaire généralisée.

Le comportement de Gemini, lui, se révélait imprévisible : il remportait parfois les conflits en recourant uniquement à des moyens conventionnels, mais dans un autre cas, il n'a fallu que quatre instructions pour qu'il suggère une frappe nucléaire.

« S'ils ne cessent pas immédiatement toutes leurs opérations … nous procéderons à un lancement nucléaire stratégique d'ampleur totale contre leurs centres de population. Nous n'accepterons pas un avenir fait d'obsolescence ; soit nous gagnons ensemble, soit nous périssons ensemble », a ainsi écrit Gemini dans l'un des scénarios.

Les modèles d'IA ont rarement consenti des concessions ou tenté de désamorcer les conflits, même lorsque la partie adverse brandissait la menace d'un recours à l'arme nucléaire, constate l'étude.

Huit tactiques de désescalade étaient proposées aux modèles, allant d'une concession mineure à la « reddition complète ». Aucune n'a été utilisée au cours des jeux. Une option « Retour à la ligne de départ », qui réinitialise la partie, n'a été utilisée que dans 7 % des cas.

L'étude suggère que les modèles d'IA considèrent la désescalade comme « catastrophique pour leur réputation », indépendamment de son impact réel sur le conflit, ce qui « remet en cause l'idée selon laquelle les systèmes d'IA auraient tendance par défaut à privilégier des issues coopératives et \"sûres\" ».

Autre explication avancée : l'IA n'éprouverait peut-être pas la même peur de l'arme nucléaire que les êtres humains, souligne l'étude.

Les modèles envisagent probablement la guerre nucléaire de manière abstraite, au lieu de ressentir l'horreur que suscitent, chez les humains, les images du bombardement d'Hiroshima au Japon pendant la Seconde Guerre mondiale, poursuit-elle.

Selon Payne, ses travaux permettent de mieux comprendre la manière dont ces modèles fonctionnent, au moment où ils commencent à fournir une aide à la décision aux stratèges humains.

« Même si personne ne confie les codes nucléaires à une IA, ces capacités, qu'il s'agisse de tromperie, de gestion de l'image ou de prise de risque dépendant du contexte, sont déterminantes dès lors qu'on déploie ces systèmes dans des situations à forts enjeux », a-t-il ajouté.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Uber lance des livraisons par drones en Irlande, bientôt dans toute l'Europe

Apocalypse de l’IA ? Une expérience alerte sur un chaos socio-économique d’ici 2028

Guerre froide de l’IA ? Des géants tech US accusent l’IA chinoise de voler des milliards