La société d'intelligence artificielle Anthropic vient de confirmer un incident grave lié à la fuite du code source de Claude Code, un outil de programmation d'IA largement utilisé.
Bien qu'il ne soit pas considéré comme une cyberattaque, l'incident suscite encore de nombreuses inquiétudes, en particulier dans un contexte de concurrence de plus en plus féroce dans le domaine de l'IA.
Selon les informations d'Anthropic, la cause provient d'une erreur humaine lors de l'emballage de la version du logiciel.
Plus précisément, la version 2.1.888 de Claude Code contenait involontairement un fichier interne, révélant près de 2 000 fichiers avec plus de 512 000 lignes de code source.
Ces données ont été rapidement détectées et diffusées sur des plateformes telles que GitHub et le réseau social X, attirant des dizaines de millions de vues en peu de temps.
Un représentant d'Anthropic a affirmé qu'il n'y avait pas de données clients sensibles ou d'informations de connexion divulguées.
Cependant, le code source divulgué aurait conservé des instructions détaillées sur le fonctionnement de Claude Code, notamment sur l'utilisation des outils, les limitations du système et les procédures de traitement des tâches de programmation. Ce sont des informations très précieuses pour les concurrents.
L'incident a immédiatement attiré l'attention de la communauté des programmeurs et des experts en sécurité. De nombreux avis suggèrent que la divulgation du code source pourrait aider d'autres entreprises d'IA à mieux comprendre comment Anthropic construit des produits, réduisant ainsi le temps de développement ou trouvant des faiblesses à exploiter.
Dans un contexte où de grands acteurs tels qu'OpenAI, Google ou xAI se précipitent pour développer des outils de programmation d'IA, cela est considéré comme un désavantage majeur pour Anthropic.
Claude Code a été présenté par Anthropic en mai 2025 comme un outil de ligne de commandes prenant en charge la programmation par l'IA, permettant aux utilisateurs d'écrire, de modifier le code, de corriger les erreurs et d'automatiser de nombreuses tâches.
Le produit a été rapidement accueilli, contribuant à porter le chiffre d'affaires annuel de l'entreprise à plus de 2,5 milliards de dollars au début de 2026.
Cette fuite met également en évidence la stratégie de développement "fermée" d'Anthropic, où le code source et la technologie de base ne sont pas rendus publics comme le modèle open source.
Lorsque les informations internes sont divulguées, le risque concurrentiel devient de plus en plus clair, car les concurrents peuvent en profiter pour mieux comprendre l'architecture et la philosophie de conception des produits.
Il est à noter qu'il s'agit du deuxième incident en moins d'une semaine lié à la divulgation d'informations internes d'Anthropic.
Auparavant, un brouillon de blog décrivant un modèle d'IA non publié nommé Claude Mythos avait également été piraté à partir d'un entrepôt de données non sécurisé.
Selon les informations divulguées, Mythos devrait être supérieur aux modèles précédents, mais en même temps, il recèle également des risques de cybersécurité importants.
Anthropic a déclaré qu'elle mettait en œuvre des mesures pour prévenir des incidents similaires à l'avenir. Cependant, l'incident a une fois de plus sonné l'alarme sur les procédures de contrôle interne et la sécurité des données dans l'industrie de l'IA en plein essor.