
Que sait-on de la vidéo montrant un faux coup d'état en France ?
En décembre 2025, une vidéo générée par intelligence artificielle annonçant un coup d'État en France est devenue virale sur les réseaux sociaux, accumulant plus de 13 millions de vues. Présentée comme un flash d'information du fictif média "Live 24", elle a semé le doute jusqu'à inciter un chef d'État africain à contacter Emmanuel Macron pour s'enquérir de la situation. Au-delà de la supercherie, cet événement met en lumière les dangers de la désinformation à l'ère de l'IA et les motivations parfois surprenantes de leurs créateurs.
Une vidéo au réalisme troublant
La vidéo, partagée massivement sur Facebook, présentait une scène chaotique à Paris. Une "journaliste" du non-existant média "Live 24" affirmait qu'un coup d'État militaire était en cours en France, mené par un colonel non identifié, et que le président Emmanuel Macron avait potentiellement été renversé. Pour renforcer son authenticité, la vidéo intégrait des images générées par IA de la Tour Eiffel éclairée, de gyrophares, d'un hélicoptère et de forces de l'ordre autour de cordons de police. Le réalisme était tel que même des observateurs avertis ont pu être momentanément trompés.
Une réaction internationale inattendue
L'impact de cette désinformation a dépassé les frontières françaises. Lors d'une visite à Marseille le 17 décembre 2025, Emmanuel Macron a révélé qu'un chef d'État africain l'avait directement contacté pour s'inquiéter de la situation : "Cher président, que se passe-t-il dans votre pays ?". Cet incident illustre comment une fake news peut avoir des conséquences diplomatiques réelles, même lorsqu'elle est entièrement fabriquée. La vidéo a particulièrement circulé dans les pays francophones d'Afrique, où elle a suscité une grande inquiétude.
Derrière la supercherie : un adolescent burkinabé en quête de notoriété
L'enquête a rapidement permis d'identifier l'auteur de la vidéo : un adolescent burkinabé qui cherchait simplement à "percer" et à gagner en notoriété sur les réseaux sociaux. Selon les informations recueillies, le jeune homme n'avait pas d'intentions politiques ou malveillantes. Son objectif était principalement financier : attirer l'attention sur sa page Facebook pour générer des revenus via les vues et les partages. Interrogé par Le Monde, le jeune homme a présenté ses excuses, expliquant qu'il ne mesurait pas la portée de son acte. "Je m'excuse", a-t-il déclaré, reconnaissant les conséquences imprévues de sa création. Ce cas souligne comment des outils de plus en plus accessibles permettent désormais à des individus isolés de créer des contenus de désinformation à grande échelle.
Un habitus de la création de contenus factices ?
Cet adolescent n'était pas un novice en matière de création de contenus factices. Sur sa page Facebook "Islam", il avait déjà publié plusieurs autres vidéos générées par IA prétendant montrer des coups d'État fictifs en France, cumulant au total près de 17 millions de vues. Certaines de ces vidéos utilisaient même le véritable logo de médias comme RFI pour paraître plus authentiques. D'autres contenus moins politiques étaient également présents sur sa page, comme des vidéos mettant en scène des attaques de lions. Cette approche "multi-thématiques" visait clairement à maximiser l'engagement et la viralité, sans souci de la véracité des informations partagées. L'adolescent faisait ainsi preuve d'une certaine expertise dans l'art de créer des contenus viraux, exploitant les outils d'IA générationnelle maintenant largement accessibles.
La réaction de Macron face à l'inertie de Meta
Alerté le 14 décembre 2025, Emmanuel Macron a immédiatement demandé le retrait de la vidéo à Meta (maison mère de Facebook). À sa surprise, la plateforme a refusé dans un premier temps, estimant que le contenu ne violait pas ses conditions d'utilisation. Finalement, la vidéo a simplement été accompagnée d'un avertissement indiquant que le contenu "pouvait avoir été créé ou modifié numériquement pour sembler réel". Face à cette situation, le président français a vivement critiqué l'attitude de Meta : "Ces gens-là se moquent de nous. Ils ne se soucient pas de garder les débats publics sains, ils se moquent de la souveraineté des démocraties et nous mettent en danger." La vidéo n'a été retirée que plusieurs jours après son signalement, suite à la pression médiatique.
Un précédent inquiétant
Ce n'était pas la première fois qu'une vidéo de ce type circulait. Début décembre 2025, une autre vidéo générée par IA, prétendument issue de RFI (Radio France Internationale), annonçait également un coup d'État en France. Cette vidéo avait accumulé plus de 3 millions de vues avant d'être retirée. Ces incidents successifs soulèvent des questions sur la capacité des plateformes à modérer efficacement les contenus de désinformation, particulièrement lorsqu'ils sont générés par IA.
Les dangers de l'IA dans la désinformation
Cet événement illustre les risques croissants liés aux deepfakes et à la désinformation par IA. La technologie permet désormais de créer des contenus ultra-réalistes à faible coût, compliquant la distinction entre le vrai et le faux pour le grand public et même pour des acteurs institutionnels. Face à cette menace, plusieurs mesures sont envisagées :
- Le développement d'outils de détection automatique des contenus générés par IA
- La sensibilisation du public aux risques de la désinformation
- Une régulation plus stricte des plateformes de partage de contenus
Cet épisode souligne l'urgence de repenser notre rapport à l'information dans un monde où les frontières entre réel et virtuel deviennent de plus en plus floues.
Sources
- Derrière la vidéo du faux coup d'Etat en France dénoncée par Emmanuel Macron - Le Monde : Enquête sur l'auteur de la vidéo virale et ses motivations.
- Fake video claiming 'coup in France' goes viral – not even Macron could immediately get it removed - France 24 : Analyse de la réaction de Macron et de l'inertie de Meta.
- Fake news sur un coup d'État en France : pourquoi Meta a refusé de retirer cette vidéo générée par IA - Le Figaro : Explications sur la position de Meta face à cette désinformation.
- VÉRIF' - Que sait-on de cette vidéo annonçant un faux coup d'État en France - TF1 Info : Investigation détaillée sur la page Facebook à l'origine de la diffusion et les autres contenus de l'auteur.
Qui a créé la fausse vidéo de coup d'État en France avec l'IA ?
L'auteur est un adolescent burkinabé qui cherchait à gagner en notoriété et à générer des revenus sur les réseaux sociaux. Il n'avait pas d'intentions politiques, mais des motivations financières et narcissiques.
L'adolescent auteur de la fausse vidéo de coup d'État en France était-il un habitué de la création de contenus factices ?
Oui, il avait déjà publié plusieurs autres vidéos générées par IA sur sa page Facebook, cumulant près de 17 millions de vues. Certaines utilisaient des logos de médias réels comme RFI pour paraître authentiques.
Pourquoi Meta (Facebook) a-t-elle d'abord refusé de retirer la vidéo du faux coup d'État en France ?
Meta a estimé que la vidéo ne violait pas ses conditions d'utilisation, se contentant d'ajouter un avertissement indiquant que le contenu pouvait avoir été créé ou modifié numériquement. La vidéo n'a été retirée que plusieurs jours après suite à la pression médiatique.
Quelles ont été les conséquences de la fausse vidéo de coup d'État en France devenue virale ?
La vidéo a accumulé plus de 13 millions de vues et a inquiété jusqu'à un chef d'État africain qui a contacté Emmanuel Macron pour s'enquérir de la situation, illustrant l'impact diplomatique réel que peut avoir une désinformation.





