OpenAI vient d'avertir que ses nouveaux modèles d'IA recèlent un risque élevé de cybersécurité en cas d'abus.
Selon cette société ces modèles peuvent être utilisés pour déployer des exploits non corrigés (zero-day exploits) ou pénétrer dans les activités complexes de l'entreprise causant des impacts réels graves.
Dans un article de blog du 10 décembre (heure locale) OpenAI a déclaré qu'il investissait massivement dans la formation à l'IA pour effectuer des tâches de cybersécurité et de défense tout en développant des outils pour aider les groupes de sécurité à vérifier et à corriger rapidement les failles.
Non seulement OpenAI mais les grands groupes technologiques améliorent également la capacité de contrefaçon de l'IA.
Google a récemment annoncé l'amélioration de l'architecture de sécurité du navigateur Chrome afin de lutter contre les attaques d'insertion de commandes sophistiquées visant à prendre le contrôle des agents de l'IA en préparation du déploiement généralisé de Gemini.
En novembre 2025 Anthropic a révélé qu'un groupe d'attaques de réseau avait tenté de manipuler Claude Code mais que cette opération avait été stoppée.
Les capacités de l'IA dans la cybersécurité augmentent rapidement. OpenAI indique que le GPT-5.1-Codex-Max atteint 76 % des défis de jeu (CTF) soit une augmentation significative par rapport aux 27 % du GPT-5 en août. C'est la preuve du rythme de développement des capacités de défense et d'attaque réseau de l'IA.
Pour minimiser les risques OpenAI applique un système de sécurité multicouche comprenant le contrôle de l'accès la sécurité de l'infrastructure le contrôle des sorties et la surveillance de l'ensemble du système. Les mesures spécifiques comprennent :
- Entraîner l'IA à refuser ou à répondre en toute sécurité aux demandes nuisibles mais toujours utiles dans l'éducation et la défense.
- Surveiller l'ensemble du système pour détecter les activités réseau suspectes.
- Coopérer avec des experts en simulation d'attaque (red teaming) pour évaluer et améliorer les mesures de réduction des risques.
OpenAI teste également Aardvark un assistant d'IA qui scanne le code source pour rechercher les failles et proposer des correctifs rapides qui devraient être fournis gratuitement à certains magasins open source non commerciaux.
Cette société a créé un 'Groupe de risque pionnier' composé d'experts en cybersécurité externes et a également mis en place un programme d'accès fiable pour les utilisateurs et les développeurs.
Les activités ci-dessus soulignent les efforts d'OpenAI pour se préparer à l'avenir face aux menaces de l'IA de plus en plus sophistiquées et maintenir la sécurité de la communauté technologique mondiale.