OpenAI vient de présenter deux nouveaux modèles, GPT-5.4 mini et GPT-5.4 nano, conçus pour optimiser la vitesse de traitement et le coût des systèmes d'intelligence artificielle à grande échelle, tout en héritant de nombreuses capacités de la version haut de gamme GPT-5.4.
Il s'agit de la prochaine étape après le lancement du GPT-5.4, une version qui se distingue par sa capacité à ajuster de manière flexible la direction de la réponse, à améliorer la recherche web approfondie et à renforcer le raisonnement avec un contexte long.
Parmi ceux-ci, le GPT-5.4 mini est considéré comme une mise à niveau significative par rapport au GPT-5 mini précédent.
Ce modèle améliore considérablement les compétences en programmation, en raisonnement, en compréhension multimétrique et en utilisation d'outils.
Il est à noter que la vitesse de traitement du GPT-5.4 mini est deux fois plus rapide, tandis que les coûts d'exploitation sont nettement inférieurs.
Selon les tests de performance, ce modèle atteint un taux d'achèvement de tâches presque équivalent à celui du GPT-5.4, mais plus optimisé en termes de latence et de coûts, particulièrement adapté aux processus de programmation à grande échelle.
Dans le segment inférieur, le GPT-5.4 nano est conçu pour les tâches prioritaires en termes de vitesse et de coût telles que la classification des données, l'extraction d'informations, le classement du contenu et les problèmes de codage simples.
C'est un choix approprié pour les systèmes qui ont besoin de traiter de gros volumes avec des exigences de réponse presque instantanées.
Les nouveaux modèles se concentrent sur les scénarios où le délai affecte directement l'expérience utilisateur.
Par exemple, les assistants de programmation ont besoin de réponses rapides, les agents d'IA auxiliaires traitent des tâches parallèles, ou les applications multimétriques ont besoin d'analyser des images en temps réel.
Un point notable est la capacité de déploiement dans un système multimodèle. Dans la plateforme Codex, GPT-5.4 peut servir de coordinateur, divisant les petites tâches telles que la recherche de code source, la lecture de documents ou l'analyse de fichiers pour les mini-modèles traités en parallèle.
En termes d'intégration, le GPT-5.4 mini est présent dans les API, Codex et ChatGPT. Le modèle prend en charge la saisie de texte, d'images, les appels de fonctions, la recherche web, le traitement de fichiers et possède des fenêtres contextuelles allant jusqu'à 400 000 tokens.
Sur ChatGPT, les utilisateurs Free et Go peuvent y accéder via l'option "Thinking", et c'est également une option de secours lorsque GPT-5.4 atteint la limite de vitesse.
Pendant ce temps, le GPT-5.4 nano n'est actuellement fourni que via l'API, destiné aux entreprises qui ont besoin de déployer l'IA au coût le plus bas.
En termes de prix, le GPT-5.4 mini coûte 0,75 USD pour chaque million de tokens entrants et 4,5 USD pour les sorties.
Avec GPT-4 nano, le coût est respectivement de 0,2 USD et 1,25 USD, ce qui montre la stratégie claire d'OpenAI pour étendre l'accès à l'IA à un plus grand nombre de sujets.