Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Désinformation et deepfakes d'IA redéfinissent la guerre en Iran

Immeuble endommagé après qu'un bâtiment résidentiel voisin a été touché lors d'une frappe nocturne américano-israélienne à Téhéran, vendredi 27 mars 2026.
Un immeuble est endommagé après qu'un immeuble résidentiel voisin a été touché lors d'une frappe nocturne américano-israélienne à Téhéran, le vendredi 27 mars 2026. Tous droits réservés  AP Photo/Vahid Salemi
Tous droits réservés AP Photo/Vahid Salemi
Par Gregory Ward
Publié le
Partager Discussion
Partager Close Button

Depuis le début de la guerre, intox, vidéos générées par l’IA et images recyclées circulent en ligne, relayées par États et profiteurs du clic.

La guerre en Iran a mis en lumière la façon dont la production de vidéos à l'aide de l'intelligence artificielle (IA) peut influer sur la perception du public durant les périodes de consommation maximale d'informations, alors que les pays impliqués dans le conflit cherchent eux aussi à façonner leur propre récit.

PUBLICITÉ
PUBLICITÉ

Mais ce phénomène peut avoir un impact émotionnel très fort dans les pays directement engagés dans la guerre, poussant leurs gouvernements à prendre des mesures de confinement strictes.

L'accès facile et peu coûteux aux technologies vidéo fondées sur l'IA a inondé les réseaux sociaux de vidéos et de photos truquées générées par IA, montrant des combats, des impacts sur des zones civiles ou des déclarations depuis le début de la guerre en Iran, alimentant une désinformation qui peut avoir une influence importante sur la perception de la guerre et sur la réalité sur le terrain.

« Des images et des vidéos spectaculaires, censées montrer en temps réel des scènes de combat et des frappes de missiles, envahissent les fils d'actualité des réseaux sociaux, se propagent à grande vitesse et trompent des millions de personnes », explique à Euronews Next Marc Owen Jones, professeur associé d'analyse des médias à l'université Northwestern au Qatar, à propos de la façon dont la guerre se déroule en ligne.

Le champ de bataille numérique

Jones, spécialiste de l'influence des réseaux sociaux, de la désinformation et de la politique en ligne sur l'opinion publique, estime que les réseaux sociaux sont devenus, dans ce conflit, un champ de bataille pour des récits concurrents, toutes les parties et leurs soutiens cherchant désormais à gagner les « cœurs et les esprits » en ligne.

Du côté américain, Jones évoque « des vidéos entrecoupées d'extraits de films hollywoodiens, une sorte de mèmeification de la communication conçue pour séduire une esthétique d'extrême droite qui rejette l'empathie au profit de l'humiliation ».

De l'autre côté, « l'Iran est monté en puissance, se moquant souvent des États-Unis avec ses mèmes, mais de nombreuses images générées par IA semblent exagérer les succès militaires iraniens, sans doute pour accentuer la pression sur les pays du Golfe afin qu'ils poussent à la désescalade », ajoute-t-il.

Des deepfakes générés par l'IA

Les progrès de l'intelligence artificielle rendent la désinformation plus facile à produire et plus convaincante. Des outils d'IA peuvent être utilisés par n'importe qui pour créer en quelques secondes des vidéos, des images et des enregistrements audio de haute qualité.

Parmi les exemples figurent des vidéos censées montrer le porte-avions américain USS Abraham Lincoln en train de brûler en mer. Les vidéos étaient si convaincantes que le président Donald Trump affirme avoir appelé ses généraux pour vérifier si elles étaient authentiques.

Trump s'est ensuite exprimé sur sa plateforme Truth Social (source en anglais) en déclarant : « Non seulement il ne brûlait pas, mais il n'avait même pas été pris pour cible, l'Iran sait bien qu'il ne faut pas faire ça ! »

D'autres exemples incluent des vidéos désormais démenties censées montrer des soldats américains en larmes ou des bâtiments détruits dans des villes du Golfe.

« L'usage de l'IA est légion et devient de plus en plus difficile à détecter », constate Jones.

Vitesse et vérification

La vitesse à laquelle les contenus se diffusent en ligne complique la vérification pour le grand public.

« Dans un conflit qui évolue rapidement, les informations vérifiées arrivent souvent avec retard, ce qui crée un vide immédiatement comblé par la désinformation », explique Jones. « Quand les gens sont inquiets, ils ont soif d'informations, mais ces informations sont souvent fausses », ajoute-t-il.

Des contenus non vérifiés peuvent toucher des millions de personnes en quelques minutes, et le public se voit confier la tâche délicate de vérifier des contenus souvent très réalistes ou diffusés sur de multiples plateformes.

Rumeurs virales

Parallèlement aux images de combat générées par IA, des spéculations se sont largement répandues la semaine dernière affirmant que le Premier ministre israélien Benyamin Netanyahou était mort.

Certains utilisateurs ont relevé des défauts visuels dans une vidéo de mauvaise qualité publiée le 13 mars par le bureau de Netanyahou. Ils affirmaient que Netanyahou semblait avoir six doigts à une main, un signe révélateur de l'usage de l'IA.

« Les rumeurs sur la mort de Netanyahou se sont accompagnées d'accusations selon lesquelles son discours était en réalité une vidéo générée par IA », relate Jones.

Netanyahou a ensuite diffusé plusieurs vidéos du type « preuve de vie » pour faire taire les rumeurs. Cependant, les spéculations sur sa mort persistent en ligne.

Bots et campagnes coordonnées

Certains contenus qui circulent en ligne pourraient faire partie de campagnes coordonnées visant à détourner l'attention, convaincre ou influencer l'opinion publique.

« On voit des comptes louches et anonymes, avec des historiques de multiples changements de nom et aucune identité discernable, qui relayent de fausses informations et des vidéos générées par IA », explique Jones.

Ces comptes peuvent paraître crédibles, mais sont souvent liés à des acteurs soutenus par des États ou à des personnes cherchant à tirer profit de contenus sensationnalistes, précise-t-il.

Dans certains cas, des comptes automatisés, ou bots, amplifient certains récits en partageant et en commentant des publications, ce qui donne l'impression qu'ils sont plus largement partagés qu'ils ne le sont en réalité.

Parodie et satire

Toutes les vidéos produites par IA n'ont pas pour but de tromper. Certaines sont délibérément conçues comme des parodies ou des satires.

Ces clips tournent souvent en dérision ou imitent des dirigeants mondiaux, comme Trump et Netanyahou, mais peuvent tout de même être pris pour de véritables vidéos.

Selon Jones, « les deepfakes générés par IA ont franchi un seuil critique, les petits défauts qui permettaient de les repérer ont disparu et cette technologie est désormais accessible à toute personne disposant d'un smartphone ».

Parmi les exemples qui circulent en ligne, on trouve une vidéo présentant Trump comme le nouveau guide suprême de l'Iran, ainsi que des clips montrant Netanyahou comme un robot défaillant ou doté de multiples doigts.

D'autres vidéos montrent des membres de l'OTAN refusant d'aider le président Trump à débloquer le détroit d'Ormuz et le président ukrainien Volodymyr Zelenskyy arrivant dans la région du Golfe avec une technologie anti-drones, avant d'être abattu par un missile.

Dans des conflits qui évoluent aussi vite, ce type de vidéos peut se détacher de son contexte initial et se diffuser très rapidement.

Érosion de la confiance

La multiplication des informations trompeuses en ligne rend de plus en plus difficile, pour le public, de faire la part entre le vrai et le faux.

« Les fausses informations peuvent se propager jusqu'à dix fois plus vite que les informations exactes sur les réseaux sociaux, et les rectifications sont rarement aussi vues ou crues que l'affirmation mensongère initiale », observe Jones.

« L'indignation pousse au partage avant que la vérification des faits n'ait le temps d'avoir lieu, et c'est exactement ce que recherchent les acteurs malveillants », poursuit-il.

Jones estime que les images spectaculaires doivent être abordées avec la même prudence que les informations non vérifiées.

« Le fait qu'elles paraissent réelles ne constitue plus une preuve suffisante de leur véracité », ajoute-t-il.

À mesure que le conflit se prolonge, la bataille se poursuit également sur les réseaux sociaux, laissant les citoyens ordinaires livrés à eux-mêmes pour naviguer dans un mélange complexe de désinformation, de satire et de contenus manipulés.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Cartes, maths et Lune : comment les innovations des femmes ont façonné l’informatique

« Pour un meilleur monde numérique » : campagne contre « l’enshitification » des réseaux sociaux

Autriche : les moins de 14 ans bientôt privés de réseaux sociaux