L'arnaque du faux Brad Pitt

L’histoire d’Anne et du faux Brad Pitt : quand l’arnaque prend un visage célèbre

Anne pensait vivre un conte de fées. Elle a en réalité été piégée par une arnaque sophistiquée, où l’intelligence artificielle et les réseaux sociaux ont permis à un escroc d’incarner Brad Pitt. Cette histoire vraie révèle les nouveaux visages de la cybercriminalité émotionnelle.

Une rencontre improbable

Tout commence sur les réseaux sociaux. Anne, retraitée française, reçoit un message privé d’un compte certifié au nom de Brad Pitt. L’homme est charmant, attentionné, et semble réellement s’intéresser à elle. Difficile d’imaginer une arnaque : la photo de profil est authentique, les échanges sont bien écrits, et l’interlocuteur se montre patient et flatteur.

Une manipulation bien rodée

Peu à peu, la relation prend une tournure plus intime. Le faux Brad confie être pris dans une affaire judiciaire complexe et demande de l’aide. Il évoque des frais d’avocat, des comptes bloqués, des déplacements impossibles. Anne commence à envoyer de l’argent.

Le piège est progressif. Il repose sur une technique appelée love scam, qui joue sur les sentiments. Ici, l’usurpation va plus loin : les escrocs utilisent des montages photo et vidéo réalistes, parfois même des appels truqués grâce à des voix synthétiques imitant l’acteur.

Combien Anne a-t-elle perdu ?

Au total, Anne aurait versé près de 120 000 euros à son faux amoureux. Des virements espacés, justifiés à chaque fois par une nouvelle urgence. L’arnaque a duré plusieurs mois. Ce n’est que grâce à l’alerte d’un proche qu’elle finit par porter plainte.

Ce type de fraude est en forte hausse. L’association Pharos, qui surveille les dérives numériques, signale une multiplication des cas où des célébrités sont utilisées comme façade pour escroquer les victimes.

Pourquoi ça fonctionne ?

L’affaire d’Anne montre la puissance des arnaques affectives quand elles s’appuient sur l’IA. Les deepfakes et les voix synthétiques peuvent créer l’illusion d’un échange réel. Couplé à une narration convaincante et à des techniques d’ingénierie sociale, le piège devient redoutable.

Certaines victimes refusent longtemps de croire qu’il s’agissait d’une arnaque. L’impact émotionnel est fort. Les escrocs savent créer une dépendance affective.

Comment se protéger ?

Voici quelques bonnes pratiques pour éviter ce type d’arnaques :

  • Vérifier l’identité sur plusieurs canaux
  • Se méfier des demandes d’argent, même faibles
  • Douter des relations trop rapides ou trop parfaites
  • Utiliser des outils de vérification d’image (recherche inversée)
  • Parler à des proches avant d’envoyer quoi que ce soit

En cas de doute, contactez des structures comme Info Escroqueries ou la plateforme Pharos.

Un phénomène mondial

Anne n’est pas seule. Des affaires similaires ont été signalées aux États-Unis, en Allemagne, au Japon. Des célébrités comme Keanu Reeves ou Elon Musk ont également été utilisées à leur insu.

Les arnaques sentimentales liées à l’usurpation d’image sont aujourd’hui parmi les escroqueries les plus lucratives en ligne.


Comment reconnaître une arnaque sentimentale en ligne ?

Soyez attentif aux demandes d’argent, aux histoires invraisemblables, et aux profils trop parfaits. Un doute ? Faites une recherche d’image ou parlez-en à un proche.

Brad Pitt est-il réellement impliqué dans cette affaire ?

Non. Le nom et l’image de l’acteur ont été usurpés. Il n’a aucun lien avec cette escroquerie, comme dans d'autres affaires similaires.

Que faire si on a été victime d’un faux profil ?

Conservez toutes les preuves, déposez plainte, signalez le compte sur la plateforme, et contactez les autorités compétentes comme Pharos ou Cybermalveillance.gouv.fr.

Sur le même sujet

Arnaque téléphonique Sécurité
Scams et clonage de voix

Votre voix, la nouvelle cible des arnaques téléphoniques

Vous recevez un appel d'un numéro inconnu. Un faux sondage, une erreur de numéro, un démarchage insistant... Vous raccrochez, un peu agacé. Mais si le véritable but de l'appel n'était pas de vous vendre quelque chose, mais de voler votre voix ? Cette menace, autrefois de la science-fiction, est aujourd'hui bien réelle. Les arnaques par téléphone, ou vishing (voice phishing), prennent une tournure inquiétante en visant à capturer votre empreinte vocale pour la cloner.

phishing cybersécurité
Deepfake et phishing vidéo

Deepfake et phishing vidéo : le nouveau visage de l’arnaque numérique

Les escroqueries numériques ne cessent d’évoluer. Avec les deepfakes, une nouvelle ère s’ouvre : celle des arnaques vidéo hyperréalistes. Imitation de voix, visage copié, message crédible… La menace devient difficile à détecter, même pour un œil averti.

revenge porn Noelle Martin
Le cas des deepfake sexuels de Noelle Martin

Deepfakes et revenge porn : le combat de Noelle Martin contre les abus de l’IA

Les deepfakes ne sont pas qu’un sujet technique ou amusant. Dans certains cas, ils deviennent des armes numériques. Le témoignage de Noelle Martin illustre les dérives les plus sombres de l’intelligence artificielle lorsqu’elle est utilisée pour créer du contenu pornographique non consenti.

Tinder Rencontres en ligne
Détecter les faux profils IA sur Tinder

Comment détecter les photos IA sur Tinder ?

Les progrès de l'intelligence artificielle générative sont fascinants. Midjourney, Sora ou Stable Diffusion créent des images d'une qualité bluffante. Mais sur Tinder, cette technologie devient un problème majeur pour l'authenticité. Fini les simples photos volées sur Google Images, place aux visages 100 % synthétiques.

Alors, comment faire le tri ? Comment déjouer les algorithmes de génération d'images ? Ce n'est pas de la science-fiction, c'est une question d'observation technique et de bon sens. Voici ma méthode, tranchée mais efficace, pour repérer les profils douteux.

Yomi Denzel Formation IA
Formations IA de Yomi Denzel : une promesse qui ne tient pas

Les formations IA de Yomi Denzel pour devenir riche ne semblent pas fonctionner

Yomi Denzel l'a fait avec le dropshipping. Aujourd'hui, il le refait avec l'intelligence artificielle. Le modèle est simple : repérer une tendance, la vendre comme une mine d'or et proposer des formations à prix d'or pour devenir riche. Sauf que pour la majorité des "étudiants", le rêve tourne court.

ByteDance Seedance 2.0
Vidéo IA virale : ByteDance censuré

Vidéo IA Brad Pitt vs Tom Cruise : ByteDance forcé de censurer son modèle

Une vidéo générée par l'IA montrant un combat réaliste entre Brad Pitt et Tom Cruise a contraint ByteDance à restreindre les fonctionnalités de son modèle Seedance 2.0.
Cet événement, survenu en février 2026, met en lumière la capacité des outils d'IA vidéo à créer du contenu indiscernable de la réalité, soulevant d'importantes questions juridiques et éthiques. Cet article décrypte l'événement, la réaction de l'industrie et les implications pour les créateurs.