L’Iran a mobilisé des dizaines de milliers de comptes factices pour diffuser des deepfakes montrant sa victoire sur Israël et les États-Unis. En moins de deux semaines, cette campagne orchestrée par l’État iranien a atteint 145 millions de vues sur les réseaux sociaux, démontrant que la guerre cognitive des deepfakes militarisés menace désormais l’infrastructure mondiale de vérité numérique à une échelle nouveau.
La cognition elle-même fait maintenant partie du champ de bataille. Les deepfakes sont utilisés comme des armes pour façonner les perceptions, obscurcir les faits et produire une ambiguïté épistémique. Cette instrumentalisation révèle l’effondrement progressif de nos systèmes collectifs de vérification face à l’IA générative militarisée.
L’Iran déploie la plus importante campagne d’État à échelle industrielle
La campagne iranienne a déployé des dizaines de milliers de faux comptes synchronisés pour diffuser des deepfakes générés par IA montrant l’Iran comme victorieux, ses adversaires affaiblis et sa cause comme légitime. L’activité s’est centrée autour de trois récits récurrents conçus pour présenter l’Iran comme l’acteur dominant et victorieux dans le conflit, amplifiés par un comportement de publication synchronisé et des actifs médiatiques répétés distribués sur de vastes réseaux de comptes. La capacité technologique de produire des vidéos synthétiques photoréalistes et cinématographiquement convaincantes est passée des studios d’Hollywood aux appareils mobiles du personnel d’opérations d’influence.
Peu après le lancement de l’opération militaire conjointe américano-israélienne baptisée “Epic Fury” le 28 février 2026 contre les installations nucléaires, l’infrastructure militaire et les cibles de leadership iraniens, une nouvelle vague de désinformation a émergé, utilisant cette fois des vidéos et images générées par IA. Les visuels étaient soignés, notable, et dans de nombreux cas entièrement fabriqués. Des scènes générées par IA d’explosions massives à Tel Aviv, d’attaques de missiles réussies sur des navires de guerre américains, d’Israéliens déplorant leurs pertes, et d’autres images prétendument montrant comment l’Iran inflige des dommages à ses ennemis ont rapidement inondé les réseaux sociaux. Beaucoup des vidéos avaient une sensation hollywoodienne, avec des explosions massives et des bangs soniques.
Les exemples documentés révèlent la sophistication de l’opération. Le New York Times a identifié au cours des deux dernières semaines plus de 110 deepfakes uniques qui véhiculent un message pro-iranien à travers des images de champ de bataille, des représentations de frappes de missiles et des séquences de guerre générales. Comme lors du déluge de deepfakes pendant la guerre iranienne de juin 2025, quand les comptes iraniens diffusaient de fausses vidéos de monuments israéliens emblématiques en flammes et recyclaient des séquences de bataille d’autres conflits, l’objectif de ce contenu est de pousser un faux narratif de succès militaire iranien et d’échec occidental.
Cette campagne s’inscrit dans une évolution technologique critique. En 2023, on estimait à 500 000 le nombre de deepfakes partagés en ligne. En 2025, ce chiffre avait atteint 8 000 000, soit une augmentation de 1 500% en 2 ans. La guerre Iran-États-Unis-Israël de 2026 représente le moment où ces trajectoires technologiques et géopolitiques ont convergé avec une force maximale.
Quand l’infrastructure de vérité s’effondre
La crise dépasse largement les deepfakes eux-mêmes. Dans un conflit qui évolue rapidement, l’information vérifiée est souvent retardée, ce qui crée un vide que la désinformation comble immédiatement. Quand les gens s’inquiètent, ils recherchent de l’information, mais cette information est souvent fausse. Le contenu non vérifié peut atteindre des millions de personnes en quelques minutes, et le public fait face à la tâche difficile de vérifier des contenus souvent très réalistes ou partagés sur plusieurs sites.
La confiance dans les médias visuels, fondement du journalisme, des preuves légales et de la communication sociale, s’érode. Une enquête Reuters de 2025 a révélé que 67% des répondants “doutent souvent de l’authenticité du contenu vidéo”, contre 33% en 2023. Ce “dividende du menteur” - où l’existence de deepfakes permet de rejeter du contenu réel comme faux - pourrait finalement être plus dommageable que les deepfakes eux-mêmes. Ces termes font référence à un paysage médiatique où les fausses nouvelles générées par l’IA jettent même les preuves légitimes dans le doute, érodant la confiance au point où toute image ou support peut maintenant être rejetée comme un deepfake.
L’infrastructure technologique actuelle révèle ses limites. La technologie elle-même s’est améliorée de manière notable, et elle est maintenant complétée par des robots conversationnels alimentés par l’IA intégrés aux résultats de recherche et aux plateformes comme X. Ces robots conversationnels sont devenus de nouvelles couches dans l’écosystème d’information. Malgré les améliorations, ils peuvent encore avoir du mal à suivre les développements en temps réel, mais ils sont de plus en plus consultés comme première source d’information. Dans le conflit actuel, Grok, le robot conversationnel de X, a signalé des vidéos du Premier ministre israélien Benjamin Netanyahu comme deepfakes, ce qui a généré sa propre vague de confusion et alimenté les rumeurs sur sa localisation.
La détection technologique prend du retard face à la génération
Le paysage de la détection de deepfakes en 2026 ressemble à une course aux armements à enjeux élevés. Les images, vidéos et audios générés par IA ont atteint un niveau de qualité où la détection humaine est essentiellement impossible. Les premières itérations étaient grossières et facilement identifiables, mais les deepfakes modernes ont atteint un niveau de photoréalisme et d’authenticité vocale qui peut tromper même les observateurs expérimentés et les systèmes de détection automatisés.
Les systèmes de sécurité traditionnels peinent à suivre l’amélioration rapide des modèles de deepfakes. Les vidéos modernes générées par IA peuvent contourner les outils de détection avec plus de 90% de précision. L’Europe révèle sa stratégie du géant de poche face aux méga-levées américaines en IA, mais cette approche européenne fragmentée peine face à l’industrialisation des deepfakes.
La réponse industrielle reste insuffisante. L’industrie technologique s’est ralliée autour du standard C2PA (Coalition for Content Provenance and Authenticity). Les principaux fabricants d’appareils photo (Canon, Nikon, Sony) intègrent maintenant des données de provenance cryptographiques au moment de la capture. Les plateformes de médias sociaux (Meta, YouTube, X, TikTok) ont mis en œuvre la vérification C2PA, affichant les informations de provenance aux côtés du contenu. Le système Content Credentials d’Adobe, intégré dans Photoshop et Lightroom, crée un historique d’édition immuable qui suit le contenu à travers les plateformes.
Mais ces solutions touchent leurs limites. Le système C2PA ne fonctionne que pour le contenu créé avec des outils compatibles C2PA. Le tatouage invisible utilise des motifs intégrés dans le contenu généré qui survivent aux changements, mais peuvent être supprimés par des adversaires suffisamment motivés avec accès au modèle de détection.
L’effondrement des garde-fous institutionnels
L’ampleur de la crise dépasse les capacités d’autorégulation des plateformes. X a annoncé une politique suspendant les créateurs du programme de partage des revenus pendant 90 jours s’ils publient des vidéos de conflit générées par IA sans divulgation, mais cette politique repose sur les métadonnées, qui peuvent être supprimées, et sur les Community Notes attachées comme utiles aux publications, qui restent rares. X n’est qu’une des plusieurs plateformes où se propagent les affirmations en temps réel sur la guerre.
Les chercheurs ne sont pas impressionnés. Joe Bodnar de l’Institute for Strategic Dialogue a déclaré à l’AFP que “les flux que je surveille sont toujours inondés de contenu généré par IA sur la guerre”. Cette saturation révèle l’impuissance des mesures correctives face à la militarisation étatique des deepfakes.
Même si la politique de démonétisation de X était strictement appliquée, un grand nombre d’utilisateurs de X qui diffusent des contenus générés par l’IA ne font pas partie du programme de partage de revenus. Ces utilisateurs restent certes soumis à des vérifications par le biais des Community Notes, mais l’efficacité de cet outil de modération communautaire est régulièrement remise en question. L’an dernier, une étude du Digital Democracy Institute of the Americas a montré que plus de 90 % des Community Notes de X ne sont jamais publiées.
Avec les changements dans les partenariats de plateforme, l’évolution des modèles de financement et les nouveaux défis technologiques, de nombreuses organisations ont besoin d’un soutien de transition pour maintenir leur travail de vérification tout en construisant une durabilité à long terme. Pour soutenir les salles de rédaction de vérification des faits et promouvoir l’intégrité de l’information dans le monde entier, le Réseau international de vérification des faits (IFCN) du Poynter Institute administre le Global Fact Check Fund, mais ces efforts demeurent marginaux face à l’industrialisation de la désinformation.
Vers une reconstruction des systèmes de vérité collective
Une désinformation générée par IA encore plus avancée sera probablement utilisée dans de futurs conflits, ce qui pourrait sérieusement compromettre la gestion de l’escalade et la confiance du public. Même alors, cependant, les deepfakes sont susceptibles de se répandre largement et de façonner les perceptions plus larges de la guerre. Cette évolution impose de repenser fondamentalement notre approche de la vérification.
Les deepfakes trompent et confusent le public et possiblement même les responsables gouvernementaux, empoisonnant le discours démocratique. Les gouvernements démocratiques devraient augmenter le personnel consacré à cette question et pousser les entreprises technologiques à faire de même. Le partage d’informations est vital. Les entreprises technologiques peuvent apprendre comment leurs plateformes sont manipulées de manières que les gouvernements doivent connaître, tandis que les agences de renseignement et de sécurité peuvent découvrir des plans de deepfakes et d’autres manipulations et avertir les entreprises technologiques.
La Chine redessine l’équilibre géopolitique de l’IA en exportant l’open source comme nouvelle diplomatie technologique, mais cette fragmentation géopolitique complique davantage la construction de standards globaux de vérification.
La solution requiert une approche multicouche. La défense doit être multicouche : vérification d’identité, analyse des médias par IA, supervision humaine et conformité réglementaire. Aucun outil unique n’est suffisant. Tous les panélistes s’accordent sur le fait que bien que l’IA soit un outil puissant, son efficacité et sa fiabilité dépendent d’une gestion attentive, de la transparence et de la qualité des données sous-jacentes. Les journalistes doivent être prudents face aux limitations de l’IA et s’assurer de vérifier et de fact-checker les informations qu’elle produit.
Le conflit iranien de 2026 : c’était le plus important conflit où la désinformation générée par IA a opéré à grande échelle, et ce ne sera définitivement pas le dernier. La barrière d’entrée est maintenant quasi inexistante : n’importe qui avec un smartphone et une invite peut créer des faux convaincants en quelques minutes. Cette rendre accessible de la tromperie est à la fois terrifiante et fascinante. Entre rendre accessible les outils de création et militariser la manipulation cognitive, nos sociétés doivent choisir de reconstruire collectivement les fondements de la vérité numérique.