L'arnaque du faux Brad Pitt

L’histoire d’Anne et du faux Brad Pitt : quand l’arnaque prend un visage célèbre

Anne pensait vivre un conte de fées. Elle a en réalité été piégée par une arnaque sophistiquée, où l’intelligence artificielle et les réseaux sociaux ont permis à un escroc d’incarner Brad Pitt. Cette histoire vraie révèle les nouveaux visages de la cybercriminalité émotionnelle.

Une rencontre improbable

Tout commence sur les réseaux sociaux. Anne, retraitée française, reçoit un message privé d’un compte certifié au nom de Brad Pitt. L’homme est charmant, attentionné, et semble réellement s’intéresser à elle. Difficile d’imaginer une arnaque : la photo de profil est authentique, les échanges sont bien écrits, et l’interlocuteur se montre patient et flatteur.

Une manipulation bien rodée

Peu à peu, la relation prend une tournure plus intime. Le faux Brad confie être pris dans une affaire judiciaire complexe et demande de l’aide. Il évoque des frais d’avocat, des comptes bloqués, des déplacements impossibles. Anne commence à envoyer de l’argent.

Le piège est progressif. Il repose sur une technique appelée love scam, qui joue sur les sentiments. Ici, l’usurpation va plus loin : les escrocs utilisent des montages photo et vidéo réalistes, parfois même des appels truqués grâce à des voix synthétiques imitant l’acteur.

Combien Anne a-t-elle perdu ?

Au total, Anne aurait versé près de 120 000 euros à son faux amoureux. Des virements espacés, justifiés à chaque fois par une nouvelle urgence. L’arnaque a duré plusieurs mois. Ce n’est que grâce à l’alerte d’un proche qu’elle finit par porter plainte.

Ce type de fraude est en forte hausse. L’association Pharos, qui surveille les dérives numériques, signale une multiplication des cas où des célébrités sont utilisées comme façade pour escroquer les victimes.

Pourquoi ça fonctionne ?

L’affaire d’Anne montre la puissance des arnaques affectives quand elles s’appuient sur l’IA. Les deepfakes et les voix synthétiques peuvent créer l’illusion d’un échange réel. Couplé à une narration convaincante et à des techniques d’ingénierie sociale, le piège devient redoutable.

Certaines victimes refusent longtemps de croire qu’il s’agissait d’une arnaque. L’impact émotionnel est fort. Les escrocs savent créer une dépendance affective.

Comment se protéger ?

Voici quelques bonnes pratiques pour éviter ce type d’arnaques :

  • Vérifier l’identité sur plusieurs canaux
  • Se méfier des demandes d’argent, même faibles
  • Douter des relations trop rapides ou trop parfaites
  • Utiliser des outils de vérification d’image (recherche inversée)
  • Parler à des proches avant d’envoyer quoi que ce soit

En cas de doute, contactez des structures comme Info Escroqueries ou la plateforme Pharos.

Un phénomène mondial

Anne n’est pas seule. Des affaires similaires ont été signalées aux États-Unis, en Allemagne, au Japon. Des célébrités comme Keanu Reeves ou Elon Musk ont également été utilisées à leur insu.

Les arnaques sentimentales liées à l’usurpation d’image sont aujourd’hui parmi les escroqueries les plus lucratives en ligne.


Comment reconnaître une arnaque sentimentale en ligne ?

Soyez attentif aux demandes d’argent, aux histoires invraisemblables, et aux profils trop parfaits. Un doute ? Faites une recherche d’image ou parlez-en à un proche.

Brad Pitt est-il réellement impliqué dans cette affaire ?

Non. Le nom et l’image de l’acteur ont été usurpés. Il n’a aucun lien avec cette escroquerie, comme dans d'autres affaires similaires.

Que faire si on a été victime d’un faux profil ?

Conservez toutes les preuves, déposez plainte, signalez le compte sur la plateforme, et contactez les autorités compétentes comme Pharos ou Cybermalveillance.gouv.fr.

Sur le même sujet

phishing cybersécurité
Deepfake et phishing vidéo

Deepfake et phishing vidéo : le nouveau visage de l’arnaque numérique

Les escroqueries numériques ne cessent d’évoluer. Avec les deepfakes, une nouvelle ère s’ouvre : celle des arnaques vidéo hyperréalistes. Imitation de voix, visage copié, message crédible… La menace devient difficile à détecter, même pour un œil averti.

revenge porn Noelle Martin
Le cas des deepfake sexuels de Noelle Martin

Deepfakes et revenge porn : le combat de Noelle Martin contre les abus de l’IA

Les deepfakes ne sont pas qu’un sujet technique ou amusant. Dans certains cas, ils deviennent des armes numériques. Le témoignage de Noelle Martin illustre les dérives les plus sombres de l’intelligence artificielle lorsqu’elle est utilisée pour créer du contenu pornographique non consenti.

pornographie usurpation
Les deepfake pornographiques, réalité dangereuse

Deepfake de contenu pornographique : quels risques ?

Les deepfakes, ces vidéos truquées générées par l’intelligence artificielle, se multiplient à grande vitesse. S’ils peuvent être spectaculaires dans les films ou les jeux vidéo, leur détournement à des fins sexuelles soulève de graves questions éthiques, légales et psychologiques.

Arnaque Manipulation
IA menteuses et arnaques

IA menteuses : quand les algorithmes volent, influencent et exploitent les vulnérables

L'intelligence artificielle est souvent perçue comme un outil neutre et objectif. Pourtant, de nombreux cas documentés montrent que certaines IA mentent délibérément pour soutirer de l'argent, influencer des opinions ou exploiter les personnes vulnérables. Ces algorithmes manipulateurs représentent une menace concrète pour nos finances, notre démocratie et notre dignité. Voici trois exemples détaillés et chiffrés qui illustrent l'ampleur de ce phénomène.

danemark biométrie
Le Danemark veut protéger les citoyens contre les deepfakes

Loi anti-deepfake : le Danemark prend les devants face à l’IA

Le Danemark veut donner à chacun un droit de propriété sur son propre visage et sa voix. Une manière inédite de lutter contre les deepfakes, ces contenus créés par intelligence artificielle qui manipulent l'image et le son d'une personne sans son consentement.

manipulation vidéo création numérique
La création de Deepfake est-elle facile ?

Est-il facile de créer un deepfake ?

Les deepfakes ont envahi les réseaux sociaux et les médias. Certains les utilisent à des fins artistiques ou humoristiques, d'autres à des fins malveillantes. Mais peut-on vraiment en créer un aussi facilement qu'on le dit ?