L'essor de l'intelligence artificielle IA dans la programmation crée un nouveau paradoxe: la productivité monte en flèche, mais s'accompagne d'une "vague" de code source qui dépasse la capacité de contrôle de l'homme.
Dans une société de services financiers, le déploiement de l'outil de programmation AI Cursor a permis d'augmenter la production de code de 25 000 à 250 000 lignes par mois.
Cependant, cela entraîne également environ 1 million de lignes de code à examiner, un volume énorme dépassant les capacités de censure existantes.
Selon Joni Klippert, PDG de StackHawk (une entreprise technologique spécialisée dans la sécurité des applications), l'augmentation rapide du nombre de codes signifie une augmentation des risques de sécurité que les entreprises ne peuvent pas suivre.
Cette tendance est devenue évidente depuis l'essor des outils d'IA d'OpenAI, d'Anthropic ou de Cursor.
Non seulement les ingénieurs, mais maintenant n'importe quel employé peut créer un logiciel en quelques heures seulement.
Cela contribue à accélérer l'innovation, mais provoque en même temps une situation de "surcharge de code de programmation".
Dans un environnement technologique, de nombreux employés considèrent cela comme une "nouvelle normalité". L'IA les aide à se concentrer sur l'idée au lieu d'écrire chaque ligne de code. Mais le revers est que le nombre d'ingénieurs suffisamment compétents pour vérifier, détecter les erreurs et assurer la sécurité n'est pas suffisant.
Les entreprises recherchent de plus en plus des ingénieurs de haut niveau, en particulier des experts en sécurité des applications.
Une enquête de Google montre que 90% des développeurs ont utilisé l'IA dans leur travail. La forte augmentation de l'efficacité a également conduit de nombreuses entreprises à réduire leurs effectifs, au motif que l'IA pourrait remplacer la majeure partie du volume de travail précédent.
Selon le directeur de la technologie de Meta, Andrew Bosworth, les projets qui nécessitaient autrefois des centaines d'ingénieurs peuvent maintenant être achevés avec quelques dizaines de personnes.
Parallèlement, l'apparition d'agents de l'IA, qui sont des systèmes capables d'écrire eux-mêmes des logiciels, pousse le rythme de développement à un niveau sans précédent.
Avec seulement quelques instructions, l'IA peut créer l'ensemble du programme en peu de temps, ce qui augmente le nombre de codes générés de façon exponentielle.
Cependant, le problème ne se limite pas au nombre. Les entreprises sont confrontées à la question: qui est responsable lorsque le code créé par l'IA rencontre des erreurs?
Auparavant, les programmeurs qui écrivaient du code corrigeaient les erreurs. Aujourd'hui, alors que l'IA crée la plupart des produits, les limites des responsabilités deviennent floues.
Les risques de sécurité augmentent également de manière imprévisible. De nombreux ingénieurs doivent télécharger l'intégralité du code source sur leur appareil personnel pour utiliser des outils d'IA, créant involontairement un risque de fuite de données si l'appareil est perdu ou attaqué.
Dans le domaine du code source ouvert, la situation est encore plus complexe. Certains projets enregistrent une augmentation soudaine des contributions, mais beaucoup d'entre eux sont des codes créés par l'IA, manquant de contrôle qualité. Il y a même des cas où les projets doivent fermer leurs portes à l'extérieur pour éviter les risques.
Pour y faire face, les entreprises continuent de se tourner vers l'IA elle-même. De nombreux nouveaux outils sont développés pour vérifier automatiquement les codes, détecter les erreurs et donner la priorité aux parties à haut risque.
Cependant, les experts estiment qu'il ne s'agit que de la première phase d'une transition majeure.
Alors que l'IA continue d'améliorer ses capacités de programmation, le défi n'est plus d'écrire du code plus rapidement, mais de savoir comment contrôler, comprendre et assumer la responsabilité de l'énorme quantité de code créée par les machines.