S'exprimant au Forum économique mondial de Davos (Suisse), le professeur Yann LeCun - l'un des "pères de l'intelligence artificielle" et ancien directeur scientifique de l'IA chez Meta - a souligné que les systèmes d'IA actuels, y compris les grands modèles linguistiques (LLM) tels que ChatGPT, présentent encore des limites fondamentales.
Selon lui, continuer à étendre la taille du modèle, à augmenter les données, les paramètres et la puissance de calcul ne suffira pas à atteindre une intelligence égale à celle des humains.
Nous ne pourrons pas atteindre l'intelligence humaine ou la superintelligence simplement en rendant ces systèmes plus grands ou mieux affinés. L'industrie de l'IA a besoin d'un changement de modèle, et pas seulement d'une expansion à grande échelle", a déclaré le professeur LeCun.
L'une de ses plus grandes préoccupations est la tendance au développement de systèmes d'agents, d'assistants en IA capables de planifier et d'agir automatiquement à la place des humains.
M. LeCun estime que ces systèmes sont construits sur une plateforme LLM qui manque de capacité à prévoir les conséquences des actions, ce qui rend difficile leur fonctionnement sûr et intelligent dans un environnement réel.
Comment un système peut-il planifier une série d'actions s'il ne peut pas prédire ce qui se passera ensuite ?", a demandé M. LeCun.
Selon LeCun, le comportement intelligent exige que l'IA ait la capacité de modéliser le monde et de comprendre les lois de la physique, les causes - les résultats et les fluctuations complexes de l'environnement réel.
Pour illustrer son point de vue, Yann LeCun compare la capacité d'apprentissage de l'homme à l'intelligence artificielle. Un enfant de 10 ans peut rapidement se familiariser et accomplir une nouvelle tâche sans formation prolongée, tandis qu'un adolescent de 17 ans peut apprendre à conduire en quelques heures seulement.
Pendant ce temps, bien que les systèmes de voitures autonomes soient entraînés avec des millions d'heures de données, les humains n'ont pas encore atteint la technologie de conduite autonome de niveau 5, c'est-à-dire que les voitures peuvent fonctionner complètement sans intervention humaine.
Selon LeCun, cela montre que la plateforme et l'architecture de l'IA actuelles ne suffisent toujours pas à reproduire l'intelligence de manière flexible et globale comme les humains.
Il a également souligné que les modèles linguistiques fonctionnent dans un "univers simplifié", où les données sont principalement du texte. Pendant ce temps, le monde réel est beaucoup plus complexe, avec des données sensorielles multidimensionnelles, continues et sonores.
Prédire le prochain mot dans un texte n'est pas aussi difficile que de comprendre et d'interagir avec le monde matériel", a déclaré LeCun.
Outre les défis techniques, il a également exprimé sa profonde inquiétude quant au risque de concentrer le pouvoir de l'IA entre les mains d'un petit nombre de grands groupes technologiques.
Selon LeCun, si l'IA est contrôlée par quelques entreprises aux États-Unis ou en Chine, elle pourrait contrôler l'ensemble du flux d'informations que la société reçoit, de la culture aux valeurs.
Nous avons besoin d'un écosystème d'IA diversifié, tout comme la société a besoin de diversité dans le journalisme", a-t-il déclaré, tout en appelant à promouvoir le open source pour réduire les risques de monopole technologique.
Bien qu'il ne s'inquiète pas de la perspective que les robots dominent l'humanité, Yann LeCun avertit que l'orientation actuelle du développement de l'IA pourrait entraîner des conséquences sociales profondes.
Son point de vue soulève une question majeure pour l'industrie technologique: l'avenir de l'IA sera-t-il basé sur l'expansion du modèle actuel, ou une révolution architecturale totalement nouvelle sera-t-il nécessaire?