Quand l'intelligence artificielle l'IA a egalement une memoire a court terme comme les humains

Cát Tiên (THEO INDIANEXPRESS) |

Le phenomene de chatbots d'IA 'perdant de la memoire' provient de la fenetre contextuelle lorsque le modele depasse les limites des tokens et est contraint d'eliminer les anciennes informations de la conversation.

Les chatbots d'IA tels que ChatGPT Gemini et Claude deviennent des outils populaires dans la vie numerique. Cependant les utilisateurs remarquent souvent un phenomene etrange : apres un certain temps de conversation ces modeles semblent 'perdre de la memoire' et oublier ce que vous venez de dire ou commencent a repeter des reponses erronees.

Sur cette question selon les experts en technologie elle decoule d'un concept technique cle appele fenetre contextuelle.

Le YouTuber et chercheur en IA Matt Pocock a recemment partage dans sa video que la fenetre contextuelle est une limite importante mais aussi la plus facile a mal interpreter dans la façon dont fonctionnent les grands modeles linguistiques (LLM). En termes simples c'est la « memoire a court terme » de l'intelligence artificielle.

Quelle est la fenetre contextuelle?

Chaque fois que les utilisateurs envoient des questions et un modele de reponse tout le texte sera divise en petites unites appelees tokens. Chaque token peut representer quelques caracteres ou une partie du mot. Tous les tokens de la conversation creeront un contexte que le modele peut voir a un moment donne.

Si la fenetre contextuelle d'un modele est de 200 000 tokens il ne peut enregistrer que cette quantite d'informations. En depassant cette limite les donnees plus anciennes seront progressivement supprimees ce qui empeche l'IA d'oublier la premiere partie de la conversation.

Par exemple Claude 4.5 peut memoriser jusqu'a 200 000 tokens tandis que Gemini 2.5 Pro peut traiter jusqu'a 2 millions. Inversement de petits modeles comme LLaMA ou Mistral ne sont limites qu'a quelques milliers.

Pourquoi l'IA ne peut-elle pas avoir une memoire infinie?

Augmenter la taille des fenetres contextuelles n'est pas toujours faisable. Chaque token supplementaire consomme des ressources de calcul et de memoire ce qui augmente les coûts d'exploitation.

De plus lorsque le contexte est trop vaste il est difficile pour le modele de trouver les details necessaires comme le mo kim day be.

Plus important encore chaque modele est conçu avec des limites architecturales fixes il ne peut donc pas se contenter d'etendre infiniment la memoire sans sacrifier les performances.

Fou au milieu : Quand l'IA oublie le milieu de l'histoire

Pocock a qualifie un phenomene caracteristique de la limite du contexte de'midpoint forgetting' provisoirement traduit par 'oublier au milieu'.

L'IA se concentre generalement sur la premiere partie (guide) et la derniere partie (le dernier message) de la conversation tandis que la partie centrale est moins remarquee.

Ce mecanisme decoule de la façon dont les modeles LLM repartissent l'attention sur les tokens. Comme les humains ils privilegient ce qui se passe plus recemment. En consequence les informations au milieu bien que importantes sont facilement oubliees.

Cela rend particulierement difficile pour les programmeurs. Si un developpeur grace a l'IA corrige une erreur dans le code d'il y a quelques centaines de lignes le modele ne peut pas se souvenir exactement de cette partie car elle a glisse hors de portee de l'attention.

Un impact sur les outils d'IA de programmation

Des outils tels que Claude Code ou GitHub Copilot fonctionnent egalement dans les limites de la fenetre contextuelle. Lorsque le projet ou la session de travail est trop long ils sont susceptibles de rencontrer des erreurs d'oubli de commandes de mauvaises reponses ou d'arreter de repondre.

Par consequent les utilisateurs professionnels doivent souvent diviser resumer ou reorganiser les seances de travail pour aider l'IA a rester concentree.

L'oubli des chatbots tels que ChatGPT ou Gemini n'est pas une erreur de systeme mais une limite naturelle de la technologie actuelle.

Alors que les entreprises technologiques continuent d'elargir les fenetres de contexte et d'optimiser la capacite de memorisation l'avenir pourrait etre temoin de modeles d'IA qui memorisent plus longtemps comprennent plus profondement et se rapprochent d'une veritable intelligence artificielle.

Cát Tiên (THEO INDIANEXPRESS)
Nouvelles connexes

Les donnees en vrac rendent l'IA peu fiable et creent facilement des reponses erronees dangereuses

|

Des recherches de l'universite Cornell mettent en garde contre le fait que les modeles d'IA tels que ChatGPT pourraient etre 'transformes en cerveau humain' en cas de contact prolonge avec du contenu de recyclage en ligne.

Etat indien renforce les reglementations sur l'IA pour empecher l'augmentation du deepfake

|

L'Inde a propose de nouvelles reglementations completes pour la gestion de l'intelligence artificielle (IA) dans le but d'empecher l'augmentation des informations erronees et du deepfake video.

La fonctionnalite IA avec plus de 8 milliards d'extensions par jour est ouverte gratuitement

|

Snapchat propose officiellement Imagine Lens - le premier objectif IA de la plateforme qui permet aux utilisateurs de creer des images a leur guise.

Les resultats de la 14e reunion du Comite executif central du Parti XIIIe legislature

|

Le Comite du Parti du Front de la Patrie (MTTQ) et les organisations centrales annoncent rapidement les resultats de la 14e conference centrale.

Le projet de plan de paix a 28 points des Etats-Unis pour la Russie et l'Ukraine

|

Le plan de paix a 28 points des Etats-Unis n'est pas facile pour l'Ukraine car Kiev doit renoncer a davantage de territoires et ne jamais adherer a l'OTAN.

Previsions pour les provinces et les villes qui continueront a connaître de fortes a tres fortes pluies avertissements meteorologiques dangereux

|

Du 21 novembre a la fin de la nuit du 22 novembre l'est des provinces de la ville de Da Nang a Dak Lak et le nord de la province de Khanh Hoa connaîtra localement de tres fortes pluies.

Les entreprises de vente au detail a Ho Chi Minh-Ville renforcent l'assurance de l'approvisionnement avant les inondations

|

Ho Chi Minh-Ville - Les systemes de vente au detail de Ho Chi Minh-Ville activent simultanement des solutions pour maintenir la stabilite de l'offre et soutenir fortement les prix afin de partager la pression des depenses avec la population.

La creation d'une station de reception et de distribution de secours aux habitants des zones inondees a Gia Lai

|

Aujourd'hui les forces fonctionnelles continuent de renforcer les ressources humaines pour secourir les habitants des zones inondees de Gia Lai Dak Lak et Khanh Hoa tout en deployant des secours comme des produits de premiere necessite.

Les donnees en vrac rendent l'IA peu fiable et creent facilement des reponses erronees dangereuses

Cát Tiên (THEO INDIANEXPRESS) |

Des recherches de l'universite Cornell mettent en garde contre le fait que les modeles d'IA tels que ChatGPT pourraient etre 'transformes en cerveau humain' en cas de contact prolonge avec du contenu de recyclage en ligne.

Etat indien renforce les reglementations sur l'IA pour empecher l'augmentation du deepfake

NGUYỄN ĐĂNG |

L'Inde a propose de nouvelles reglementations completes pour la gestion de l'intelligence artificielle (IA) dans le but d'empecher l'augmentation des informations erronees et du deepfake video.

La fonctionnalite IA avec plus de 8 milliards d'extensions par jour est ouverte gratuitement

HẠO THIÊN |

Snapchat propose officiellement Imagine Lens - le premier objectif IA de la plateforme qui permet aux utilisateurs de creer des images a leur guise.