Il s'agit de l'une des decouvertes importantes recemment publiees par le groupe mondial de cybersecurite et de securite numerique Kaspersky.
M. Sergey Lozhkin chef du groupe de recherche et d'analyse mondiales (GReAT) de Kaspersky pour le Moyen-Orient la Turquie l'Afrique et l'Asie-Pacifique a souligne que depuis que ChatGPT est devenu mondialise en 2023 leurs experts en cybersecurite ont constate une augmentation rapide des applications utiles de l'IA (intelligence artificielle) a de nombreux fins - des taches ordinaires telles que la creation de videos aux taches techniques telles que la detection et l'analyse des menaces.
Cependant dans le sens inverse les mechants profitent egalement de l'IA pour ameliorer leurs capacites d'attaque cybernetique. 'Nous entrons dans une nouvelle ere de cybersecurite et de societe ou l'IA joue le role de bouclier de defense tandis que la Dark AI est transformee en une arme dangereuse dans les cyberattaques' a partage M. Sergey Lozhkin.
Dark AI designe le deploiement au niveau local ou a distance de grands modeles linguistiques (LLM) non limites dans un systeme complet ou une plateforme de chatbots pour des fins malveillantes morales ou illegales.
Ces systemes fonctionnent en dehors des normes de securite de conformite et de controle de gestion qui permettent souvent de commettre des actes tels que des escroqueries des manipulations des cyberattaques ou l'exploitation de donnees sans surveillance etroite.
M. Lozhkin a partage que la forme la plus courante d'abus d'IA aujourd'hui est l'emergence des modeles Black Hat GPT qui sont apparus au milieu de 2023.
Il s'agit de modeles d'IA developpes ou ajustes specifiquement pour servir des objectifs non ethiques et illegaux tels que : la creation de logiciels malveillants la redaction d'e-mails frauduleux de maniere fluide et hautement convaincante a la fois pour les attaques a grande echelle et ciblant des cibles specifiques la creation de fausses voix et de videos deepfake...
Les Black Hat GPT peuvent exister sous forme de modeles d'IA totalement prives ou semi-prive et sont conçus pour servir les activites de cybercriminalite d'escroquerie et d'automatisation des logiciels malveillants.
Pour aider les organisations a renforcer leurs capacites de defense contre les menaces de Dark AI les experts en cybersecurite recommandent :
- Utiliser de nouvelles solutions de securite pour detecter les logiciels malveillants crees par l'IA et controler les risques dans la chaîne d'approvisionnement.
- Application d'outils d'information sur les menaces en temps reel pour surveiller les actions d'exploitation des failles controlees par l'IA.
- Renforcer le controle l'acces et la formation des employes afin de limiter le phenomene de l'IA dans la zone sombre (Shadow AI) et le risque de fuite de donnees.
- Etablir un centre de gestion de la cybersecurite (SOC) pour surveiller les menaces et reagir rapidement aux incidents.