
Les élections législatives indiennes de 2024, le plus grand exercice démocratique de l'histoire, se sont déroulées sous une nouvelle ombre : celle des hypertrucages, ou "deepfakes". Ces manipulations audiovisuelles, générées par intelligence artificielle, ont inondé les réseaux sociaux, mettant en scène les principaux candidats dans des situations fabriquées. Ce phénomène, d'une ampleur et d'une sophistication croissantes, interroge la résilience des processus électoraux face à la désinformation technologique et force les démocraties du monde entier à repenser leurs stratégies de défense informationnelle.
Un scrutin titanesque à l'ère du doute numérique
Avec près de 970 millions d'électeurs appelés aux urnes sur une période de six semaines, les élections indiennes de 2024 ont constitué un événement d'une ampleur considérable [6]. Ce gigantisme logistique et humain s'est doublé d'une complexité nouvelle, celle de la circulation massive d'informations et, de plus en plus, de désinformations sur les plateformes numériques. Au cœur de cette problématique se trouvent les hypertrucages, des contenus audio ou vidéo synthétiques d'un réalisme saisissant, créés à l'aide d'algorithmes d'apprentissage profond. Autrefois cantonnée aux laboratoires de recherche ou aux studios d'effets spéciaux, cette technologie est devenue accessible au grand public, permettant de manipuler l'image et la voix de n'importe qui, y compris les personnalités politiques les plus en vue. La prolifération d'applications mobiles simples d'utilisation a démocratisé la création de ces contenus, abaissant drastiquement le seuil de compétences techniques requis pour produire une manipulation convaincante.
La puissance de ces outils réside dans leur capacité à exploiter les biais cognitifs humains. Une vidéo, même de mauvaise qualité, est souvent perçue comme une preuve plus tangible qu'un texte. Lorsqu'elle met en scène une figure d'autorité ou un candidat politique dans une posture compromettante ou tenant des propos choquants, l'impact émotionnel peut être immédiat et puissant, court-circuitant l'analyse critique. La vitesse de propagation sur les réseaux sociaux, notamment via des applications de messagerie cryptées comme WhatsApp, qui compte plus de 500 millions d'utilisateurs en Inde, rend la vérification et le démenti extrêmement difficiles. Une fois qu'un deepfake devient viral, le mal est fait : le doute s'installe dans l'esprit de l'électeur, et la confiance dans l'information et les institutions s'érode. Les élections de 2024 ont ainsi servi de terrain d'expérimentation à grande échelle pour cette nouvelle arme de l'arsenal de la désinformation, posant une question fondamentale : comment une démocratie peut-elle fonctionner si ses citoyens ne peuvent plus croire ce qu'ils voient et entendent ?
Modi et Gandhi, cibles de campagnes synthétiques
Durant la campagne électorale, les deux principales figures politiques du pays, le Premier ministre sortant Narendra Modi et son principal opposant Rahul Gandhi, ont été les cibles privilégiées de ces manipulations. Des vidéos les montrant dans des situations entièrement fabriquées ont circulé abondamment. Par exemple, des clips audio imitant la voix de hauts fonctionnaires ont été utilisés pour propager de fausses informations sur des fraudes électorales supposées. Des acteurs de Bollywood, immensément populaires, ont également été victimes de deepfakes, leurs images étant utilisées dans des vidéos critiquant le gouvernement Modi, sans leur consentement. L'objectif de ces campagnes synthétiques est multiple : il peut s'agir de nuire directement à la réputation d'un candidat en lui prêtant des paroles qu'il n'a jamais prononcées ou des actions qu'il n'a jamais commises. Il peut aussi s'agir de semer la confusion en diffusant de fausses annonces ou de fausses promesses, ou encore de démobiliser une partie de l'électorat en propageant un sentiment de cynisme généralisé envers la classe politique.
Ces hypertrucages ne sont pas toujours grossiers. Certains sont conçus pour être subtils, insérant une fausse information dans un discours par ailleurs authentique, ou modifiant une expression faciale pour suggérer une émotion particulière. La sophistication croissante de ces techniques rend la détection à l'œil nu quasiment impossible pour le citoyen moyen. L'impact est d'autant plus fort que ces contenus sont souvent partagés au sein de groupes de confiance (famille, amis), ce qui leur confère une crédibilité supplémentaire. La polarisation politique extrême qui caractérise le paysage médiatique indien actuel offre un terreau fertile à la propagation de ces manipulations. Chaque camp est tenté de croire les contenus qui confirment ses propres opinions et de rejeter ceux qui les contredisent, créant des bulles de filtres où la vérité factuelle n'a plus sa place. La campagne de 2024 a ainsi illustré comment la technologie des deepfakes peut être instrumentalisée pour exacerber les tensions et transformer le débat démocratique en un champ de bataille informationnel où tous les coups semblent permis.
La réponse législative indienne et ses impasses
Face à cette menace grandissante, le gouvernement indien a réagi en proposant d'amender sa loi sur les technologies de l'information, l'IT Act de 2000. L'idée principale est d'obliger les plateformes numériques, telles que Facebook, YouTube ou X (anciennement Twitter), à identifier et à étiqueter clairement les contenus générés ou modifiés par une intelligence artificielle [1]. Cette mesure, qui semble de bon sens, se heurte cependant à des obstacles considérables qui en limitent la portée pratique. Le premier est d'ordre technique. Comment identifier de manière fiable et à grande échelle tous les contenus qui ont été manipulés ? Les outils de détection existent, mais ils sont souvent en retard sur les techniques de création, dans une course-poursuite technologique permanente. Les générateurs de deepfakes les plus récents intègrent des contre-mesures pour déjouer les systèmes de détection, rendant la tâche encore plus ardue.
Le deuxième obstacle est juridique et constitutionnel. Faire peser sur les plateformes la responsabilité de la détection et de l'étiquetage soulève des questions complexes en matière de liberté d'expression. Où placer le curseur entre la lutte contre la désinformation et la censure ? Une plateforme pourrait, par crainte de sanctions, pécher par excès de zèle et étiqueter des contenus légitimes, comme les parodies ou les créations artistiques. De plus, l'immense volume de contenus postés chaque seconde en Inde, dans une multitude de langues et de dialectes, rend la modération humaine et même automatisée extrêmement compliquée. L'analyse publiée par The Diplomat souligne que si les intentions du gouvernement sont louables, la mise en œuvre de ces nouvelles règles s'avère très difficile dans la pratique [1]. Sans une coopération internationale forte et des standards techniques communs, la réponse purement nationale risque de rester largement symbolique, laissant le champ libre aux créateurs de contenus malveillants.
Un phénomène mondial, des réponses contrastées
L'Inde n'est pas un cas isolé. La menace des hypertrucages sur les processus démocratiques est devenue une préoccupation mondiale, et d'autres pays ont également été confrontés à ce phénomène, avec des réponses variées. En Indonésie, lors de l'élection présidentielle du 14 février 2024, la campagne a été marquée par l'apparition d'un deepfake de l'ancien dictateur Suharto, décédé en 2008, qui semblait apporter son soutien à un parti [2]. D'autres vidéos montraient des candidats s'exprimant dans un arabe parfait, un atout de communication dans le plus grand pays musulman du monde. En Thaïlande, une vidéo truquée montrant un candidat avouant un achat de votes a dû être démentie par des vérificateurs de faits, qui ont estimé à 92,8% la probabilité qu'il s'agisse d'une manipulation [3].
Face à cette menace, certains pays tentent de s'organiser. Aux Philippines, des législateurs ont mis en place un groupe de travail national sur les deepfakes (National Deepfake Task Force), et des entreprises comme Microsoft ont lancé des initiatives pour aider à protéger l'intégrité des élections [4]. En Europe, le Digital Services Act (DSA) constitue une première tentative de régulation à grande échelle. Sans viser spécifiquement les deepfakes, il impose aux très grandes plateformes (celles comptant plus de 45 millions d'utilisateurs mensuels) de mettre en place des mesures pour analyser et atténuer les risques systémiques, ce qui inclut la manipulation de l'information [5]. Cette approche, basée sur la responsabilité des acteurs les plus puissants de l'écosystème numérique, pourrait servir de modèle. Cependant, l'hétérogénéité des réponses nationales et l'absence d'un consensus international sur la manière de réguler ces technologies montrent que la communauté mondiale peine encore à prendre la mesure du problème. La comparaison internationale révèle une prise de conscience partagée, mais aussi une fragmentation des stratégies, alors que la technologie, elle, ne connaît pas de frontières.
L'éducation, clé de voûte de la résilience démocratique
Si les réponses technologiques et législatives sont nécessaires, elles resteront insuffisantes si elles ne s'accompagnent pas d'un effort massif d'éducation et de sensibilisation des citoyens. La meilleure défense contre la désinformation reste un public critique, capable de questionner les informations qu'il reçoit et de vérifier leurs sources. Cela passe par le développement de l'éducation aux médias et à l'information à tous les niveaux du système scolaire, mais aussi par des campagnes de sensibilisation grand public. Il s'agit d'inculquer des réflexes simples : se méfier des contenus qui provoquent une forte réaction émotionnelle, croiser les sources, rechercher l'origine d'une vidéo ou d'une image avant de la partager. Des initiatives comme le
programme "FactShala" en Inde, qui vise à former des centaines de milliers de personnes à la littératie numérique, sont des exemples encourageants mais qui doivent être généralisés.
La lutte contre les hypertrucages ne peut être gagnée uniquement par des experts ou des gouvernements. Elle est l'affaire de tous. Les journalistes ont la responsabilité de redoubler de vigilance et d'adopter de nouveaux outils pour authentifier leurs sources. Les plateformes technologiques, qui tirent profit de l'engagement généré par ces contenus, doivent investir massivement dans la modération et la recherche, et collaborer plus étroitement avec les fact-checkers et les autorités. Les organisations de la société civile ont un rôle crucial à jouer pour surveiller les dérives et alerter l'opinion. Enfin, chaque citoyen a le pouvoir, et la responsabilité, de briser la chaîne de la désinformation en adoptant une hygiène informationnelle rigoureuse.
Le cas des élections indiennes de 2024 est un avertissement pour toutes les démocraties. Il montre que la technologie peut être un formidable outil de progrès et de communication, mais qu'elle peut aussi, si l'on n'y prend garde, saper les fondements mêmes du pacte démocratique : la confiance dans une réalité partagée et dans la possibilité d'un débat public rationnel. L'enjeu n'est pas de rejeter l'innovation technologique, mais de la maîtriser et de la mettre au service de l'idéal démocratique plutôt que de la laisser le subvertir. L'avenir de la démocratie à l'ère numérique dépendra de notre capacité collective à construire une nouvelle forme de contrat social, un contrat qui intègre les réalités du monde numérique et qui réaffirme la primauté de la vérité et de la raison dans la sphère publique. La bataille ne fait que commencer.
Références
- [1] The Diplomat. India's New Rules to Tackle Deepfakes, thediplomat.com
- [2] The Conversation. Deepfakes and disinformation ahead of Indonesian election, theconversation.com
- [3] Thai PBS Verify. Natthaphong's viral admission proved to be deepfake, thaipbs.or.th
- [4] Microsoft. AI & Cybersecurity: Safeguarding Philippine Elections, news.microsoft.com
- [5] Commission européenne. The Digital Services Act, digital-strategy.ec.europa.eu
- [6] Wikipédia. Élections législatives indiennes de 2024
- Recevez les analyses du Journal directement dans votre boîte mail.
- Les émissions de CO2 de la Chine ont baissé de 0,3 % en 2025. C'est un chiffre modeste. Mais il prolonge une tendance qui dure depuis 21 mois consécutifs : depuis mars 2024, les émissions du premier pollueur mondial sont "stables ou en baisse".
- L'IA détruit-elle des emplois ? Deux études publiées en mars 2026 — l'une par la Harvard Business School, l'autre par Anthropic — apportent les premières données empiriques solides. Et la réponse est plus nuancée que le débat public ne le laisse croire.
- Le paludisme a tué 608 000 personnes en 2022, dont 95 % en Afrique subsaharienne et 78 % d'enfants de moins de cinq ans. Et pour la première fois, un vaccin déployé à grande échelle montre des résultats mesurables sur le terrain.
- Avoir envie d'avoir 20 ans aujourd'hui. Un média indépendant qui documente le progrès avec rigueur, sans naïveté ni catastrophisme.
- Des fiches de lecture structurées : thèse centrale, arguments clés, limites, et verdict.
- Le JdP est un projet éditorial indépendant fondé sur les données, les contre-narratifs et l'optimisme lucide. Chaque article est sourcé, nuancé et ouvert à la discussion.
- Le Journal d'un Progressiste utilise des cookies pour améliorer l'expérience de lecture et comprendre comment le site est utilisé. Aucune donnée n'est collectée à des fins commerciales, publicitaires ou de revente. Les cookies nécessaires au fonctionnement du site sont toujours actifs. Les cookies optionnels ne sont activés qu'avec votre consentement explicite, conformément au RGPD.