Le 7 avril, la National Cyber Security Association (NCA) a organisé un séminaire thématique intitulé "La sécurité à l'ère de l'IA - Une stratégie pour former un avenir numérique".
S'exprimant lors du séminaire, le colonel, docteur Nguyễn Hồng Quân - directeur adjoint du Département de la cybersécurité et de la prévention et de la lutte contre la criminalité utilisant les hautes technologies (A05 - Ministère de la Sécurité publique), chef du Comité de la sécurité des données et de la protection des données personnelles, Association nationale de la cybersécurité, a estimé que l'IA modifie fondamentalement les méthodes et la nature des menaces dans le cyberespace.
Si auparavant, les cybercriminels dépendaient principalement des techniques et des outils traditionnels, aujourd'hui, avec le soutien de l'IA, ils ont la capacité d'automatiser les attaques à grande échelle et avec un niveau de sophistication sans précédent. Les formes d'escroquerie personnalisées, la technologie Deepfake sont de plus en plus difficiles à détecter et les logiciels malveillants peuvent s'adapter pour éviter les systèmes de défense.
Un point notable est que les cybercriminels passent d'une phase d'activité isolée à un modèle organisationnel professionnel, systématique et "industrialisé". L'IA permet de réduire considérablement le temps de préparation, de déploiement et d'expansion de l'échelle des attaques.
Cela conduit à une nouvelle réalité, le cyberespace n'est plus un environnement statique, mais est devenu un champ de bataille dynamique, où les activités d'attaque et de défense se déroulent en continu à un rythme de plus en plus rapide.

La réalité au Vietnam montre que ces tendances ne sont plus un risque potentiel mais sont devenues clairement visibles. Nous constatons de nombreux cas d'escroqueries via de faux messages, de faux marques, de banques, d'applications visant à s'approprier des biens; et en particulier les appels utilisant la technologie Deepfake imitant des images, des voix pour créer la confiance et demander des virements d'argent.
En particulier, les sujets se font également passer pour des agences fonctionnelles, utilisent des scénarios sophistiqués, exploitent des informations personnelles pour exercer une pression psychologique sur les victimes. Ces incidents montrent une combinaison de plus en plus étroite entre la technologie et la science de la psychologie du comportement humain" - a souligné le colonel, docteur Nguyen Hong Quan.
Selon le colonel, docteur Nguyễn Hồng Quân, dans ce contexte, il est essentiel de renforcer la coopération entre les agences d'État, les entreprises et les organisations internationales. Aucun pays ou organisation ne peut résoudre lui-même tous les problèmes soulevés. Nous devons construire un écosystème de coopération, dans lequel le partage d'informations sur les menaces, la coordination dans la recherche, le développement et la mise en œuvre de solutions technologiques avancées.

Lors de l'événement, Check Point a participé en tant que partenaire professionnel, partageant un point de vue international sur la cybersécurité à l'ère de l'IA. "L'IA reshape à la fois l'innovation commerciale et les risques de réseau", a partagé Mme Ruma Balasubramanian, présidente de Check Point Software Technologies pour la région Asie-Pacifique et le Japon.
Selon Mme Ruma Balasubramanian, la méthode de sécurité de l'IA de Check Point se concentre sur l'affichage, la gestion et la prévention dans l'ensemble de l'écosystème de l'IA. Pour les entreprises qui s'intéressent à la construction d'une infrastructure d'IA distincte afin de répondre aux exigences de propriété des données, Check Point propose une approche à travers le modèle "AI Factory Security Blueprint" - une architecture de référence qui permet de contrôler les risques tout au long de l'infrastructure GPU aux grands modèles linguistiques (LLM).