L'arnaque du faux Brad Pitt

L’histoire d’Anne et du faux Brad Pitt : quand l’arnaque prend un visage célèbre

Anne pensait vivre un conte de fées. Elle a en réalité été piégée par une arnaque sophistiquée, où l’intelligence artificielle et les réseaux sociaux ont permis à un escroc d’incarner Brad Pitt. Cette histoire vraie révèle les nouveaux visages de la cybercriminalité émotionnelle.

Une rencontre improbable

Tout commence sur les réseaux sociaux. Anne, retraitée française, reçoit un message privé d’un compte certifié au nom de Brad Pitt. L’homme est charmant, attentionné, et semble réellement s’intéresser à elle. Difficile d’imaginer une arnaque : la photo de profil est authentique, les échanges sont bien écrits, et l’interlocuteur se montre patient et flatteur.

Une manipulation bien rodée

Peu à peu, la relation prend une tournure plus intime. Le faux Brad confie être pris dans une affaire judiciaire complexe et demande de l’aide. Il évoque des frais d’avocat, des comptes bloqués, des déplacements impossibles. Anne commence à envoyer de l’argent.

Le piège est progressif. Il repose sur une technique appelée love scam, qui joue sur les sentiments. Ici, l’usurpation va plus loin : les escrocs utilisent des montages photo et vidéo réalistes, parfois même des appels truqués grâce à des voix synthétiques imitant l’acteur.

Combien Anne a-t-elle perdu ?

Au total, Anne aurait versé près de 120 000 euros à son faux amoureux. Des virements espacés, justifiés à chaque fois par une nouvelle urgence. L’arnaque a duré plusieurs mois. Ce n’est que grâce à l’alerte d’un proche qu’elle finit par porter plainte.

Ce type de fraude est en forte hausse. L’association Pharos, qui surveille les dérives numériques, signale une multiplication des cas où des célébrités sont utilisées comme façade pour escroquer les victimes.

Pourquoi ça fonctionne ?

L’affaire d’Anne montre la puissance des arnaques affectives quand elles s’appuient sur l’IA. Les deepfakes et les voix synthétiques peuvent créer l’illusion d’un échange réel. Couplé à une narration convaincante et à des techniques d’ingénierie sociale, le piège devient redoutable.

Certaines victimes refusent longtemps de croire qu’il s’agissait d’une arnaque. L’impact émotionnel est fort. Les escrocs savent créer une dépendance affective.

Comment se protéger ?

Voici quelques bonnes pratiques pour éviter ce type d’arnaques :

  • Vérifier l’identité sur plusieurs canaux
  • Se méfier des demandes d’argent, même faibles
  • Douter des relations trop rapides ou trop parfaites
  • Utiliser des outils de vérification d’image (recherche inversée)
  • Parler à des proches avant d’envoyer quoi que ce soit

En cas de doute, contactez des structures comme Info Escroqueries ou la plateforme Pharos.

Un phénomène mondial

Anne n’est pas seule. Des affaires similaires ont été signalées aux États-Unis, en Allemagne, au Japon. Des célébrités comme Keanu Reeves ou Elon Musk ont également été utilisées à leur insu.

Les arnaques sentimentales liées à l’usurpation d’image sont aujourd’hui parmi les escroqueries les plus lucratives en ligne.


Comment reconnaître une arnaque sentimentale en ligne ?

Soyez attentif aux demandes d’argent, aux histoires invraisemblables, et aux profils trop parfaits. Un doute ? Faites une recherche d’image ou parlez-en à un proche.

Brad Pitt est-il réellement impliqué dans cette affaire ?

Non. Le nom et l’image de l’acteur ont été usurpés. Il n’a aucun lien avec cette escroquerie, comme dans d'autres affaires similaires.

Que faire si on a été victime d’un faux profil ?

Conservez toutes les preuves, déposez plainte, signalez le compte sur la plateforme, et contactez les autorités compétentes comme Pharos ou Cybermalveillance.gouv.fr.

Sur le même sujet

Arnaque téléphonique Sécurité
Scams et clonage de voix

Votre voix, la nouvelle cible des arnaques téléphoniques

Vous recevez un appel d'un numéro inconnu. Un faux sondage, une erreur de numéro, un démarchage insistant... Vous raccrochez, un peu agacé. Mais si le véritable but de l'appel n'était pas de vous vendre quelque chose, mais de voler votre voix ? Cette menace, autrefois de la science-fiction, est aujourd'hui bien réelle. Les arnaques par téléphone, ou vishing (voice phishing), prennent une tournure inquiétante en visant à capturer votre empreinte vocale pour la cloner.

phishing cybersécurité
Deepfake et phishing vidéo

Deepfake et phishing vidéo : le nouveau visage de l’arnaque numérique

Les escroqueries numériques ne cessent d’évoluer. Avec les deepfakes, une nouvelle ère s’ouvre : celle des arnaques vidéo hyperréalistes. Imitation de voix, visage copié, message crédible… La menace devient difficile à détecter, même pour un œil averti.

revenge porn Noelle Martin
Le cas des deepfake sexuels de Noelle Martin

Deepfakes et revenge porn : le combat de Noelle Martin contre les abus de l’IA

Les deepfakes ne sont pas qu’un sujet technique ou amusant. Dans certains cas, ils deviennent des armes numériques. Le témoignage de Noelle Martin illustre les dérives les plus sombres de l’intelligence artificielle lorsqu’elle est utilisée pour créer du contenu pornographique non consenti.

Yomi Denzel Formation IA
Formations IA de Yomi Denzel : une promesse qui ne tient pas

Les formations IA de Yomi Denzel pour devenir riche ne semblent pas fonctionner

Yomi Denzel l'a fait avec le dropshipping. Aujourd'hui, il le refait avec l'intelligence artificielle. Le modèle est simple : repérer une tendance, la vendre comme une mine d'or et proposer des formations à prix d'or pour devenir riche. Sauf que pour la majorité des "étudiants", le rêve tourne court.

Arnaque Sécurité en ligne
Analyse de l'arnaque Pegasus IA

Pegasus IA : Attention, arnaque à la fausse "dark" IA

Vous avez peut-être vu passer sur les réseaux sociaux des publicités pour Pegasus IA, un site qui propose une version "dark" ou non censurée de ChatGPT. Les promesses sont alléchantes : des réponses plus profondes, des fonctionnalités avancées et un accès à des connaissances inédites. Pourtant, une analyse approfondie révèle de nombreux signaux d'alerte qui poussent à la plus grande prudence.

Tinder Chatfishing
Chatfishing : l'IA vous a peut-être déjà dragué

Chatfishing : l'IA vous a peut-être déjà dragué

Vous avez déjà flirté sur une application de rencontre et remarqué des réponses parfaitement formulées, instantanées à toute heure ? Vous n'êtes peut-être pas en train de discuter avec un humain. Le chatfishing est un phénomène croissant où des personnes utilisent l'intelligence artificielle pour créer des illusions de séduction en ligne. Une pratique qui toucherait déjà des millions d'utilisateurs à travers le monde.