Le groupe de recherche et d'analyse mondiales (GReAT) de Kaspersky vient de decouvrir des publicites fournissant des services video et audio deepfake en temps reel sur le darknet. Le prix de depart enregistre est d'environ 50 USD (environ 1 3 million de VND) pour la fausse video et 30 USD (environ 800 000 VND) pour la fausse conversation telephonique et peut etre plus eleve en fonction de la complexite et de la duree du contenu.
Auparavant les services de creation de deepfake sur le darknet coûtaient entre 300 USD et 20 000 USD/minute. Les forfaits de deepfake permettent desormais aux mechants de creer rapidement des sons et des videos contrefaits en temps reel a un coût tres faible par rapport a auparavant.
Les publicites promettent egalement de nombreuses options de fonctionnalites notamment le changement de visage (face swapping) en temps reel lors d'appels video sur la plateforme de conference en ligne ou le messenger le 'changement' de visage pour l'authentification ainsi que la falsification de la source d'emission de la camera sur l'appareil.
Certains articles publicitaires affirment qu'ils peuvent fournir un logiciel qui synchronise le visage d'une personne dans une video avec des dialogues meme en langue etrangere. Ils vendent egalement des outils de clonage vocal (voice cloning) qui permettent d'imiter la voix et d'ajuster les hauteurs les sons pour exprimer differentes emotions.
Cependant il est fort probable que ces publicites ne soient en realite qu'un stratageme d'escroquerie visant a s'approprier l'argent des personnes qui ont l'intention d'acheter.
M. Dmitry Galov chef du groupe de recherche et d'analyse mondiale de Kaspersky en Russie et au Kazakhstan a declare : 'Nous notons non seulement les publicites fournissant des services deepfake mais nous constatons egalement que la demande d'utilisation de ces outils augmente de jour en jour.
Les suspects testent et integrent activement l'IA dans leurs activites. Certaines plateformes developpent meme des fonctionnalites plus sophistiquees telles que des modeles de langage importants et malveillants entierement construits au depart separes des modeles de langage importants publics et pouvant fonctionner directement sur les appareils des criminels'.
Selon M. Galov bien que ces technologies n'aient pas cree de toute nouvelle menace cybernetique elles rendent les assaillants considerablement plus dangereux. Dans ce contexte les experts en cybersecurite doivent redoubler d'efforts pour y faire face. L'une des orientations les plus prometteuses est d'utiliser l'IA pour augmenter a la fois la productivite des experts en securite et ameliorer l'efficacite de la defense.
Pour proteger la securite contre les menaces de deepfake Kaspersky recommande :
- Les entreprises mettent pleinement en œuvre les mesures de securite du reseau : elles ne se limitent pas a l'installation de solutions de protection mais ont egalement besoin d'une equipe d'experts en technologies de l'information qualifies.
- Assurer que les employes comprennent le deepfake et le niveau de danger de cette technologie et organiser regulierement des formations pour aider les employes a savoir comment l'identifier.
- Donner aux employes les competences necessaires pour reconnaître les signes caracteristiques du deepfake : mouvements rates pas fluides lumiere incoherente entre les cadres couleurs de peau peu naturelles acouphenes anormaux ou faibles acouphenes images deformees video filmees intentionnellement de faible qualite ou faible luminosite.