Une nouvelle etude de l'universite Cornell (Etats-Unis) montre que les modeles d'intelligence artificielle (IA) tels que ChatGPT peuvent rencontrer une 'traitement du cerveau' une diminution de la capacite de raisonnement de pensee et de comprehension s'ils sont exposes frequemment a du contenu illegal sur Internet.
Dans un article scientifique intitule 'LLM peut souffrir de troubles cerebraux' l'equipe de recherche a averti : 'Les publications inutiles sur le web provoquent une perte cognitive a long terme pour les grands modeles linguistiques (LLM).
C’est un constat inquietant, car les LLM sont a la base de chatbots celebres tels que ChatGPT, Gemini, Claude ou Copilot.
Les scientifiques ont declare avoir entraîne et teste des modeles tels que Llama 3 et Qwen 2.5 avec des donnees recueillies sur le reseau social X qui comprennent des courts messages des vues massives et de nombreuses fausses declarations.
Les resultats montrent que les modeles nourris par le contenu des dechets ont une precision nettement reduite passant de 74 9 % a 57 2 % dans les tests de pensee.
En particulier la capacite de comprehension du contexte et de connexion a l'information a egalement fortement diminue passant de 84 4 % a 52 3 %. En d'autres termes ces IA commencent a mal comprendre le monde lorsqu'elles doivent traiter trop de donnees complexes repetitives ou deformees.
De plus les modeles presentent egalement un phenomene que le groupe de recherche appelle l'ignorance de la pensee c'est-a-dire l'ignorance de certaines etapes de la serie de raisonnements ce qui conduit a des reponses superficielles ou erronees.
Plus grave encore ces IA developpent egalement des caracteristiques telles que la tendance a l'autocritique ou la tendance a l'opposition sociale similaires aux manifestations de troubles de la personnalite chez l'homme.
Lorsqu'ils sont ajustes en reformant avec des donnees de meilleure qualite la capacite de raisonnement des modeles s'ameliore mais ne peut pas revenir au niveau initial.
Les chercheurs proposent trois etapes de controle pour prevenir la 'degenerescence cerebrale' dans l'IA :
1. Evaluation periodique des capacites cognitives des LLM.
2. Controler strictement la qualite des donnees pendant le processus de pre-formation.
3. Etudier plus en profondeur comment le contenu deforme et la propagation rapide peuvent remodeler le comportement du modele d'apprentissage automatique.
Dans un contexte ou le monde depend de plus en plus de l'IA pour rechercher des informations creer du contenu et prendre des decisions cette decouverte est un avertissement que meme l'intelligence artificielle ne peut pas etre immunisee contre les dechets de reseau si l'homme ne nettoie pas l'environnement de donnees qu'il cree lui-meme.