Le produit nommé Code Review est directement intégré à la plateforme Claude Code, dans le but de détecter les erreurs précocement et d'améliorer la qualité du logiciel.
Dans le développement de logiciels, l'évaluation du code (code review) entre les programmeurs joue un rôle important pour détecter les erreurs, assurer la cohérence et maintenir la qualité du système.
Cependant, l'émergence d'outils de programmation basés sur l'IA a considérablement modifié ce processus. De nombreux développeurs utilisent désormais l'IA pour créer du code à partir de directives en langage naturel, une tendance parfois appelée "programmation émotionnelle".
Bien qu'elle contribue à accélérer le développement, cette méthode augmente également le risque d'erreurs logiques, de risques de sécurité et de codes incompréhensibles.
Lorsque l'IA crée un grand nombre de codes en peu de temps, le nombre de demandes de mise à jour de codes (appelées demandes de retrait) augmente également fortement, exerçant une forte pression sur l'équipe de censure.
Selon Mme Cat Wu, chef du département des produits d'Anthropic, de nombreux chefs d'entreprise se demandent comment garantir que les demandes de retrait créées par l'IA soient testées efficacement?
Nous constatons que Claude Code crée de nombreuses demandes de retrait et que cela bloque le processus de publication du logiciel. Code Review est conçu pour résoudre ce problème", a déclaré Mme Cat Wu.
Le nouvel outil est conçu pour analyser automatiquement les demandes de pull et donner des commentaires directement sur le code source.
Une fois activé, le système peut être intégré à GitHub, permettant à l'IA d'évaluer les changements avant qu'ils ne soient intégrés au système officiel.
Au lieu de se concentrer sur les erreurs de forme ou de style de programmation, Code Review privilégie la détection des erreurs logiques, des problèmes qui peuvent provoquer des problèmes graves dans le logiciel. L'IA expliquera en détail chaque problème, les raisons pour lesquelles les erreurs peuvent poser des risques et proposera des solutions.
Les erreurs sont également classées par gravité par couleur, comme le rouge pour les erreurs les plus graves, le jaune pour les problèmes à examiner et le violet pour les problèmes liés à l'ancien code source ou aux erreurs qui sont apparues auparavant.
Pour ce faire, Anthropic utilise l'architecture « multi-agents ». De nombreux agents IA fonctionnent en parallèle pour vérifier le code sous différents angles, puis un agent synthétique analysera les résultats, supprimera les chevauchements et priorisera les erreurs les plus importantes.
En plus de détecter les erreurs logiques, Code Review fournit également une analyse de sécurité de base. Les chefs d'équipe techniques peuvent personnaliser des règles de test supplémentaires basées sur les normes internes de l'entreprise.
Pour des besoins de sécurité plus approfondis, Anthropic indique que les entreprises peuvent utiliser leur propre produit appelé Claude Code Security.
Actuellement, Code Review est déployé sous forme de prévisualisation pour les clients utilisant les forfaits Claude for Teams et Claude for Enterprise, ciblant particulièrement les grandes entreprises telles qu'Uber, Salesforce et Accenture.
Selon Anthropic, le coût de l'utilisation du service sera calculé par token, de la même manière que les autres services d'IA. Chaque évaluation de code devrait coûter environ 15 à 25 USD, en fonction de la complexité du code source.
Anthropic estime qu'à mesure que l'IA crée de plus en plus de codes de programmation, la demande d'outils de test automatique augmentera également fortement. L'entreprise espère que Code Review aidera les entreprises à développer des logiciels plus rapidement, tout en réduisant considérablement le nombre d'erreurs avant la sortie du produit.