Deepfake et phishing vidéo

Deepfake et phishing vidéo : le nouveau visage de l’arnaque numérique

Les escroqueries numériques ne cessent d’évoluer. Avec les deepfakes, une nouvelle ère s’ouvre : celle des arnaques vidéo hyperréalistes. Imitation de voix, visage copié, message crédible… La menace devient difficile à détecter, même pour un œil averti.

Qu’est-ce qu’un phishing vidéo par deepfake ?

Le phishing vidéo par deepfake est une nouvelle forme d’arnaque numérique où l’on utilise l’intelligence artificielle pour créer une fausse vidéo réaliste : une personne connue (collègue, dirigeant, proche) semble parler directement à la victime pour lui demander un virement, des identifiants ou une action urgente.

Les techniques utilisées

Ces arnaques combinent plusieurs outils :

  • des modèles de synthèse vocale capables d’imiter une voix à partir de quelques minutes d’audio,
  • des deepfakes visuels pour animer un visage à partir d’une simple photo,
  • une mise en scène crédible (fond Zoom, décor de bureau, tenue professionnelle…).

L’objectif est de créer un sentiment d’urgence et de confiance immédiat.

Des exemples concrets et récents

En mars 2024, un employé d’une grande entreprise à Hong Kong a transféré plus de 25 millions de dollars après avoir reçu un appel vidéo où plusieurs collègues – en réalité générés par IA – confirmaient la demande.

Dans un autre cas, une fausse vidéo d’un PDG demandant un virement urgent à un service comptable a été diffusée… avec le bon logo, le bon décor, et une voix parfaite.

Pourquoi est-ce si dangereux ?

Parce que l’humain croit ce qu’il voit. Une vidéo crédible est plus convaincante qu’un simple mail. Le deepfake agit comme une preuve visuelle artificielle, difficile à remettre en question, surtout dans un contexte professionnel ou émotionnel fort.

Comment s’en protéger ?

Voici quelques bonnes pratiques :

  • Ne jamais exécuter une demande financière sur la seule base d’une vidéo ou d’un appel urgent.
  • Mettre en place une double validation pour les virements (procédures internes, appels directs).
  • Former les équipes à ces nouvelles formes de fraude.
  • Utiliser des outils de détection de deepfakes dans les contextes sensibles.

Vers une réglementation nécessaire

Le cadre juridique est encore flou. Certains pays envisagent d’interdire certains usages des deepfakes, en particulier pour l’escroquerie. En parallèle, les plateformes (YouTube, LinkedIn, Zoom…) renforcent leurs règles de détection et de signalement.


Qu’est-ce qu’un deepfake utilisé pour du phishing vidéo ?

C’est une vidéo truquée, générée par IA, dans laquelle une personne semble parler à la victime pour lui demander une action (souvent financière), alors qu’il s’agit d’une arnaque.

Comment repérer un phishing vidéo ?

Regardez les mouvements du visage et les yeux. Vérifiez la demande par un autre canal. Soyez vigilant face à toute demande urgente inhabituelle par vidéo.

Que faire si je pense avoir été victime ?

Prévenez immédiatement votre service informatique ou votre banque. Portez plainte et conservez toute preuve de la tentative de fraude (vidéo, mails, enregistrements).

Sur le même sujet

arnaque usurpation
L'arnaque du faux Brad Pitt

L’histoire d’Anne et du faux Brad Pitt : quand l’arnaque prend un visage célèbre

Anne pensait vivre un conte de fées. Elle a en réalité été piégée par une arnaque sophistiquée, où l’intelligence artificielle et les réseaux sociaux ont permis à un escroc d’incarner Brad Pitt. Cette histoire vraie révèle les nouveaux visages de la cybercriminalité émotionnelle.

youtube monétisation
YouTube et l'avenir des vidéos générées par IA

YouTube démonétise les vidéos créées par IA : progrès ou pure hypocrisie ?

YouTube a récemment déclenché une vive polémique en annonçant la démonétisation des vidéos dites « Full IA ». Une décision qui soulève autant de questions qu’elle n’en résout : véritable prise de conscience ou mesure opportuniste ?

veo3 google
Vidéos racistes générées par l'IA Veo 3 inondant TikTok

Veo 3 : l'IA de Google à l'origine d'une vague de contenus racistes sur TikTok

Veo 3, la dernière innovation de Google en matière de génération vidéo par IA, se retrouve au cœur d'une controverse mondiale suite à la prolifération de vidéos à caractère raciste sur TikTok. Ces contenus synthétiques, parfois visionnés des millions de fois, exploitent des stéréotypes visuels profondément discriminatoires et offensants. Malgré les mesures de protection annoncées par les deux géants technologiques, les systèmes de modération de TikTok et de Google semblent totalement dépassés face à l'ampleur du phénomène.

openai gpt-5
Zenith et Summit, futurs GPT-5 ?

Zenith et Summit : GPT-5 incognito ?

Depuis quelques jours, deux mystérieux modèles, Zenith et Summit, ont fait leur apparition sur la plateforme LM Arena. Les rumeurs enflent : s’agirait-il de versions de GPT-5 en phase de test ? Voici un décryptage complet de ce que l’on sait jusqu’à présent.

GPT GLM
Z.AI vs ChatGPT

Pourquoi j'utilise de plus en plus Z.AI à la place de ChatGPT

Bien que fidèle à ChatGPT depuis plus d'un an, je me rends compte que je ne lui fais plus autant confiance pour m'assister dans mon travail de rédaction ou de développement. Je trouve GLM meilleur sur certains aspects, et c'est précisément de ces différences que je souhaite vous parler dans cet article.

youtube google
YouTube et l'IA pour détecter les mineurs

YouTube déploie une IA pour identifier les utilisateurs mineurs

À partir du 13 août 2025, YouTube va tester une intelligence artificielle pour estimer l'âge réel de ses utilisateurs. Objectif : mieux protéger les mineurs, même lorsqu'ils mentent sur leur date de naissance. Voici comment fonctionne ce système et ce que cela change.