Les frontières entre le vrai et le faux sont effacées, les utilisateurs deviennent la cible de deepfakes.
Selon le rapport de recherche, l'enquête sur la cybersécurité 2025 dans le secteur des utilisateurs individuels menée par l'Association nationale de cybersécurité, environ 1 personne sur 555 est victime d'escroquerie.
L'expert Vũ Duy Hưng - Hưng AI Creative estime que le deepfake devient l'un des défis les plus graves de l'ère de l'intelligence artificielle, lorsque la frontière entre le vrai et le faux est de plus en plus floue. Des images, des voix aux vidéos, les outils d'IA actuels permettent de créer du contenu contrefait avec une grande authenticité, facile d'accès et très difficile à distinguer à l'œil nu.
Selon l'Association nationale de la cybersécurité, rien qu'au premier trimestre 2025, le montant total des dommages mondiaux causés par la fraude à la profondeur a atteint 200 millions de dollars, avec une fréquence d'attaques d'une attaque toutes les 5 minutes.
La réalité montre que les astuces d'escroquerie par deepfake ne se limitent plus aux avertissements, mais sont apparues avec des scénarios très spécifiques, touchant la psychologie des victimes.
Mme Nguyễn Thu Lam (32 ans) - comptable d'une entreprise à Hanoï a raconté qu'à la fin du mois de novembre 2025, elle avait reçu un appel vidéo via l'application Telegram d'un compte dont la photo de profil et le nom ressemblaient exactement à ceux d'un dirigeant de l'entreprise. Dans l'appel, cette personne est apparue avec un visage et une voix très similaires à ceux de son patron, lui demandant de transférer d'urgence 370 millions de dongs pour traiter un contrat avec un partenaire étranger.
Il parlait vite, semblait très impatient et m'a demandé de ne pas déranger les autres départements. L'image et la voix étaient si similaires que je n'ai rien soupçonné", se souvient Mme Hà. Ce n'est qu'après avoir transféré l'argent et rappelé le numéro de téléphone personnel du directeur qu'elle s'est rendu compte avec stupeur qu'elle avait été escroquée.
Un autre cas s'est produit à Bắc Ninh. M. Tạ Quang Hanh (45 ans) - propriétaire d'un magasin - a déclaré avoir reçu un appel d'un numéro inconnu avec une voix identique à celle de son fils étudiant en Chine. Cette personne a déclaré avoir eu un accident et avoir besoin de transférer d'urgence 150 millions de dongs pour payer les frais d'hospitalisation.
La voix tremblante, l'appelant correctement dans la façon de s'adresser à la famille, je n'ai pas eu le moindre soupçon. J'ai juste eu le temps de transférer de l'argent puis de rappeler mon enfant par vidéo, puis j'ai su que rien ne s'était passé", a raconté M. Hanh.
Selon l'expert en IA Vũ Thanh Thắng - président de l'unité de développement AIZ, les escroqueries utilisant de fausses images, des voix et des vidéos peuvent être l'expression de la deepfake. Cette technologie reproduit des personnes avec une grande authenticité, rendant difficile la reconnaissance des victimes. En combinant des scénarios de pression temporelle, en se faisant passer pour des connaissances ou des personnes compétentes, la deepfake est exploitée pour se transformer en un outil d'escroquerie particulièrement dangereux, capable de tromper même les personnes connaissant la technologie.
Le point commun de ces affaires est que les escrocs collectent souvent des données d'images et de voix provenant des réseaux sociaux, puis utilisent des outils d'IA pour élaborer des scénarios d'escroquerie hautement personnalisés.
Deepfake est également exploité pour créer des vidéos, des images pour attirer les vues, vendre des marchandises, se faire passer pour des célébrités, couper et coller de fausses déclarations pour en tirer profit. La réalité montre que le deepfake est devenu un danger réel, s'infiltrant dans la vie avec un niveau de sophistication croissant.
Renforcer le contrôle avec les plateformes technologiques derrière les produits deepfake
M. Trần Văn Sơn - Vice-directeur de l'Institut national de technologie numérique et de transformation numérique (ministère des Sciences et Technologies) a déclaré que la plupart des systèmes d'IA générateurs sont actuellement classés dans le groupe de risque moyen en raison de leur capacité à créer un contenu trompeur ou à avoir un impact négatif sur les utilisateurs. C'est également la plate-forme technologique derrière les produits deepfake, qui permet de créer des images, des sons et des vidéos faux avec une grande réalisme, augmentant le risque d'être exploités pour des actes frauduleux et des violations de la loi.
La loi sur l'IA (loi sur l'intelligence artificielle en vigueur à partir du 1er mars 2026) précise les responsabilités des entités concernées dans la détection des incidents, l'application de mesures techniques pour les remédier, voire la suspension ou le retrait temporaire du système si nécessaire. Les fournisseurs et les unités de mise en œuvre doivent également expliquer le but de l'utilisation, les principes de fonctionnement et les mesures de gestion des risques aux autorités compétentes.
Il est à noter que la loi interdit strictement l'utilisation de la technologie deepfake pour escroquer ou violer la loi. Les systèmes d'IA générateurs sont tenus d'étiqueter le contenu créé ou modifié par l'IA, tout en appliquant des solutions d'identification pour servir la gestion et la traçabilité. En cas de non-respect des exigences de contrôle des risques, le système peut être classé dans le groupe à haut risque et soumis à une surveillance plus étroite.
M. Trần Văn Sơn a souligné que pour les violations graves telles que l'utilisation de deepfake pour agresser les enfants ou perturber l'ordre social, les individus et les organisations concernés ne sont pas seulement sanctionnés administrativement, mais peuvent également être poursuivis pénalement et doivent indemniser les dommages conformément à la loi.
D'un point de vue juridique, l'avocat Trần Thế Anh - directeur adjoint du cabinet d'avocats TNHH XTVN a déclaré que, bien qu'il n'y ait pas de chef d'accusation distinct pour le deepfake, les actes d'abus de cette technologie peuvent toujours être traités conformément aux réglementations en vigueur.
L'acte d'utiliser le deepfake pour s'approprier des biens peut être poursuivi pour le crime de fraude et d'appropriation de biens en vertu de l'article 174 du Code pénal de 2015 (modifié en 2017), avec une peine maximale allant jusqu'à la prison à vie. En cas de diffusion de contenus contrefaits, affectant des organisations et des individus, il peut être poursuivi en vertu de l'article 288 ou de l'article 155 du Code pénal.
S'il n'est pas encore au point de poursuites pénales, le contrevenant peut être sanctionné administrativement conformément au décret 15/2020/ND-CP (modifié et complété en 2022) avec une amende de 10 millions de dongs à 20 millions de dongs pour l'acte de fourniture et de partage d'informations fausses sur le réseau.
Les avocats recommandent aux citoyens d'être plus vigilants face aux contenus anormaux sur le cyberespace, en particulier les appels ou vidéos demandant un transfert d'argent urgent. La vérification des informations par plusieurs canaux indépendants est nécessaire pour éviter de tomber dans le piège de l'escroquerie.
En outre, les utilisateurs ne doivent pas partager arbitrairement des photos et des vidéos personnelles sur les réseaux sociaux, car cela peut devenir des données d'entrée permettant à de mauvaises personnes de créer des produits deepfaked à des fins frauduleuses. En cas de détection de signes anormaux, il est nécessaire de signaler rapidement aux autorités compétentes pour obtenir de l'aide dans le traitement.