L'intelligence artificielle (IA) ouvre de nombreuses percées, mais il existe toujours une limite fondamentale: il est impossible d'apprendre par soi-même après sa mise en œuvre.
Contrairement aux humains, en particulier aux jeunes enfants qui s'adaptent constamment à l'environnement, les modèles d'IA actuels sont presque "gelés", fonctionnant uniquement sur la base de données qui ont été entraînées auparavant.
Selon une étude publiée le 17 mars 2026 par les principaux scientifiques en recherche sur l'IA - Emmanuel Dupoux (domaine des sciences cognitives - FAIR chez Meta), Yann LeCun (domaine de l'intelligence artificielle, apprentissage profond - Professeur à l'Université de New York) et Jitendra Malik (domaine de la vision assistée, Professeur à l'Université de Californie à Berkeley), la raison réside dans la manière dont l'IA est construite.
La plupart des systèmes modernes dépendent du processus MLOps, où les humains collectent des données, forment et mettent à jour les modèles par lots. Lorsque l'environnement change, l'IA ne peut pas s'ajuster elle-même mais doit être recyclée à partir de zéro.
Cela rend l'IA plus susceptible d'échouer dans des situations réelles différentes des données de formation. Les modèles linguistiques ou visuels peuvent très bien identifier les modèles, mais manquent de capacité d'adaptation et n'apprennent pas de leurs propres erreurs.
La recherche souligne deux mécanismes d'apprentissage fondamentaux qui doivent être combinés. Le premier est le système A (apprentissage par l'observation). C'est ainsi que les gens construisent leur compréhension du monde en regardant, en écoutant et en prédisant.
Les modèles d'IA actuels appartiennent principalement à ce groupe avec l'avantage de la capacité d'étendre et de détecter les lois à partir de mégadonnées. Cependant, le point faible est qu'ils ne sont pas liés à l'action réelle et qu'il est difficile de distinguer la relation cause à effet.
Deuxièmement, le système B (apprentissage par l'action), basé sur l'essai et l'erreur. C'est ainsi que les gens apprennent à marcher, à parler ou à résoudre des problèmes. L'avantage de ce système est sa capacité à explorer de nouvelles solutions, mais il consomme beaucoup de données et de temps.
Dans la nature, ces deux systèmes fonctionnent toujours en même temps. Les humains observent et agissent en même temps, ajustant constamment pour optimiser leur comportement. Inversement, l'IA sépare désormais ces deux mécanismes, ce qui limite leur capacité d'apprentissage.
Pour y remédier, les chercheurs proposent d'ajouter le système M (hypercontrôle), qui joue le rôle de « cerveau de commande ».
Ce système suit les erreurs, les niveaux d'incertitude et les performances, décidant ainsi quand apprendre par l'observation, quand expérimenter. En d'autres termes, l'IA saura se demander ce qu'il faut apprendre et comment apprendre.
Cette approche s'inspire de personnes comme les enfants qui explorent lorsqu'ils ne sont pas sûrs, qui s'entraînent lorsqu'ils comprennent et qui renforcent même leurs connaissances pendant leur sommeil.
Si elle est appliquée avec succès, l'IA peut ajuster elle-même sa stratégie d'apprentissage sans intervention humaine continue.
Le groupe de recherche a également proposé un modèle de développement selon deux échelles de temps, comprenant: le "cycle de vie" - où l'IA apprend pendant son fonctionnement et l'"évolution" - où le système de surcontrôle est optimisé à travers des millions de simulations. Ceci est considéré comme un pas de plus en plus proche de l'IA capable d'apprendre de manière autonome.
Cependant, les défis ne sont pas minces, car la construction d'environnements de simulation suffisamment rapides et pratiques nécessite d'énormes ressources de calcul. Dans le même temps, l'apprentissage autonome de l'IA soulève également des inquiétudes quant à la sécurité lorsqu'il peut agir de manière imprévisible.
Cependant, les scientifiques estiment que c'est une voie nécessaire. Non seulement elle aide l'IA à fonctionner plus efficacement dans le monde réel, mais cette recherche contribue également à expliquer comment les humains apprennent et s'adaptent, ce qui est l'un des plus grands mystères de l'intelligence.