
Mbappé et Ester Expósito : face aux rumeurs, ces photos générées par IA
Début mars 2026, les réseaux sociaux s'emballent : Kylian Mbappé et l'actrice espagnole Ester Expósito auraient été aperçus ensemble à Paris. Des clichés flous, des captures d'écran de piètre qualité et des images au réalisme douteux circulent à grande vitesse. Certains sont authentiques. D'autres, très probablement, non. Cet article s'adresse à ceux qui veulent comprendre comment l'IA générative s'invite dans les rumeurs people et comment ne pas se faire avoir. Un sujet qui dépasse largement le cas Mbappé : il touche à la façon dont nous consommons l'information visuelle en 2026.
Ce qui s'est réellement passé à Paris
Les faits d'abord. Kylian Mbappé, blessé à la cheville gauche depuis le 21 février, séjourne à Paris pour suivre un protocole de rééducation supervisé par le staff médical du Real Madrid. Ester Expósito, actrice révélée dans la série Élite sur Netflix, se trouve dans la capitale pour la Fashion Week elle est la seule personnalité espagnole invitée au Grand Dîner du Louvre.
C'est l'influenceur Aqababe, connu pour ses exclusivités sur la vie mondaine parisienne, qui déclenche la rumeur le 6 mars 2026 : selon lui, les deux célébrités se fréquenteraient depuis plusieurs mois. Des photos et une courte vidéo publiées dans la foulée montrent deux silhouettes quittant le même hôtel de luxe, le Le Royal Monceau, pour monter dans le même SUV. La qualité des images est médiocre ce qui, ironiquement, alimente autant les spéculations que les doutes.
Dans les jours suivants, la presse espagnole (notamment Semana et Hola) publie d'autres clichés : un dîner avec vue sur la Tour Eiffel, une sortie dans un bowling parisien, un retour à Madrid en jet privé. Aucune des deux célébrités ne confirme ni n'infirme la relation.

Pourquoi des images générées par IA circulent dans cette affaire
Dès qu'un buzz de cette ampleur se déclenche, deux dynamiques s'activent simultanément sur les réseaux sociaux. La première est journalistique : les paparazzi et comptes de potins cherchent et publient de vraies photos, souvent floues, volées depuis loin. La seconde est bien plus problématique : des internautes utilisent des outils de génération d'images par IA pour créer de faux clichés du couple, suffisamment réalistes pour tromper au premier regard.
Dans le cas Mbappé, ce n'est pas une première. En 2023, une vidéo deepfake montrant le footballeur enfant réprimandé par son père était devenue virale, partagée des milliers de fois comme si elle était authentique alors qu'elle provenait d'un compte satirique qui l'avait clairement signalée comme parodique. Plus récemment, son image a été utilisée dans de fausses publicités pour des applications de casino ou de trading, générées grâce à des outils de clonage de voix et de substitution de visage.
Avec Gemini, Stable Diffusion ou Sora, il est aujourd'hui possible de générer en quelques secondes une photo réaliste de deux célébrités ensemble dans n'importe quel décor. La barrière technique est quasi nulle. Ce qui change la donne, c'est la vitesse à laquelle ces images sont injectées dans un flux d'information déjà saturé.

Comment distinguer une vraie photo d'une image générée par IA
La détection d'images synthétiques est devenue une compétence de base pour quiconque consomme de l'information sur les réseaux sociaux. Voici les signaux qui doivent alerter.
Les artefacts visuels sont le premier indice. Les mains restent le talon d'Achille des modèles génératifs : doigts en trop, phalanges fusionnées, proportions incohérentes. Les oreilles, les bijoux et les lunettes présentent souvent des asymétries impossibles. Les arrière-plans comportent des éléments répétés ou déformés une rambarde qui se perd dans le flou, du texte illisible sur un panneau.
Le contexte de publication est tout aussi révélateur. Une image virale sans source identifiable, publiée par un compte créé récemment ou avec peu d'abonnés, doit immédiatement être considérée avec méfiance. Dans l'affaire Mbappé, les photos les plus solides proviennent de médias établis comme Semana ou Hola, qui engagent leur crédibilité en les publiant.
Les outils de détection se sont multipliés ces deux dernières années. Microsoft Video Authenticator analyse les images et fournit un score de probabilité de manipulation. Deepware Scanner est conçu spécifiquement pour les vidéos. L'Adobe Content Authenticity Initiative (CAI) travaille à standardiser l'authentification du contenu numérique. Ces outils ne sont pas infaillibles, mais ils apportent un niveau de recul utile face aux images suspectes.
Le deepfake de célébrité : un problème structurel, pas un incident isolé
L'affaire Mbappé–Expósito illustre un phénomène bien plus large. Les célébrités à forte visibilité sportifs, acteurs, personnalités politiques sont systématiquement ciblées dès qu'un sujet les concernant monte en tendance. Leur image abondamment documentée en ligne fournit exactement les données d'entraînement dont ont besoin les modèles génératifs pour produire des résultats convaincants.
Les usages malveillants prennent plusieurs formes. Les fausses publicités frauduleuses utilisent le visage et la voix de personnalités pour promouvoir des casinos en ligne, des applications de trading ou des produits douteux Mbappé, Zinédine Zidane, Omar Sy ou encore MrBeast en ont régulièrement été victimes. Le deepfake romantique consiste à fabriquer des images intimes de personnes réelles, un usage particulièrement préjudiciable pour les femmes. Taylor Swift en a été victime à grande échelle début 2024. Et la désinformation contextuelle exploite un fait réel ici, la présence confirmée des deux célébrités à Paris pour lui greffer des images fabriquées qui amplifient le récit.
Ce dernier cas est le plus difficile à détecter, car il s'appuie sur une base factuelle solide. Le lecteur baisse sa garde parce que la situation de fond est vraie.
Ce que ça dit de notre rapport aux images en 2026
Pendant des décennies, la photo a été considérée comme preuve. Un cliché, c'était un fait. Cette époque est révolue. En 2026, toute image publiée sans métadonnées vérifiables et sans source identifiable doit être traitée comme une information non confirmée exactement comme un témoignage anonyme.
Ce glissement est profond. Il ne concerne pas seulement les rumeurs people : il touche la façon dont nous percevons les événements politiques, les conflits, les accidents. Des cadres de référence comme le C2PA (Coalition for Content Provenance and Authenticity), auxquels participent Adobe, Microsoft, Intel ou BBC, tentent d'établir une norme de traçabilité pour les contenus numériques. L'idée : intégrer dans les métadonnées d'une image la preuve cryptographique de son origine et de ses éventuelles modifications.
Mais ces solutions techniques mettent du temps à se déployer. En attendant, la première ligne de défense reste le lecteur lui-même : source, contexte, cohérence visuelle. Trois réflexes qui font la différence entre une information et une intox.
Sources
- Real Madrid’s Kylian Mbappé & Elite’s Ester Expósito photographed together sparking romance rumors – Just Jared : Chronologie des faits confirmés, dont la sortie commune de l'hôtel Le Royal Monceau.
- IA Générative & Deepfake : Le cas Mbappé – humanize.me : Analyse technique du deepfake viral de 2023 et interview de son créateur, éclairant sur la facilité de fabrication.
- Facebook est envahi de fausses vidéos de célébrités – LADN.eu : Panorama des arnaques deepfake utilisant des célébrités françaises, dont Mbappé, pour des publicités frauduleuses.
- Deepfakes : comment repérer les images générées par l'IA – Fnac L'Éclaireur : Présentation des principaux outils de détection disponibles, dont Microsoft Video Authenticator et Deepware Scanner.
Mbappé et Ester Expósito sont-ils vraiment en couple ?
Ni Kylian Mbappé ni Ester Expósito n'ont confirmé leur relation. Des photos authentiques les montrent ensemble à Paris début mars 2026, mais le statut de leur relation reste officiellement inconnu.
Les photos de Mbappé et Ester Expósito circulant sur les réseaux sont-elles vraies ?
Certaines sont authentiques et proviennent de médias comme Semana ou Hola. D'autres, de qualité suspecte et sans source vérifiable, peuvent être des images générées par IA. Il faut vérifier la source avant de les considérer comme réelles.
Comment savoir si une photo de célébrité est générée par une IA ?
Examinez les mains (doigts anormaux), les oreilles et l'arrière-plan (éléments flous ou incohérents). Vérifiez la source de publication. Des outils comme Microsoft Video Authenticator ou Deepware Scanner permettent aussi d'analyser les images suspectes.
Kylian Mbappé a-t-il déjà été victime de deepfakes ?
Oui, à plusieurs reprises. En 2023, une vidéo deepfake le montrant enfant est devenue virale. Son image a aussi été utilisée dans de fausses publicités pour des casinos et applications de trading, sans son consentement.
Pourquoi les célébrités sont-elles particulièrement ciblées par les deepfakes ?
Leur image est abondamment documentée en ligne, ce qui fournit les données nécessaires aux modèles d'IA pour produire des résultats convaincants. Plus une personne est photographiée sous des angles variés, plus il est facile de générer une image synthétique crédible d'elle.





