La startup chinoise d'IA DeepSeek a lancé deux nouveaux grands modèles linguistiques (LLM) appelés DeepSeek V4 Flash et DeepSeek V4 Pro, poursuivant sa stratégie de concurrence par des performances élevées mais à faible coût.
Cette décision intervient plus d'un an après que des versions antérieures telles que V3.2 et R1 ont attiré l'attention mondiale, défiant la position de nombreux géants de l'industrie de l'intelligence artificielle.
Les deux nouveaux modèles V4 sont tous deux publiés sous code source ouvert, possédant une fenêtre contextuelle de plus d'un million de tokens, permettant de traiter d'énormes quantités de données telles que des documents entiers ou un code source en une seule saisie.
Parmi celles-ci, la version Pro a une taille allant jusqu'à 1,6 billion de paramètres (49 milliards de paramètres actifs), considérée comme l'un des plus grands modèles open source actuellement. Ce chiffre dépasse les concurrents tels que Moonshot AI avec Kimi K2. 6 ou MiniMax avec M1.
La version Flash plus petite avec environ 284 milliards de paramètres, est conçue pour optimiser les coûts et la vitesse de traitement.
Les deux modèles ne prennent en charge que la sortie de texte, ne créent pas de contenu multimédia tel que des images ou des vidéos et sont différents de certains systèmes d'IA fermés actuels.
En termes de technologie, DeepSeek divise les tâches et les confie à des modules spécialisés pour le traitement. Dans le même temps, la société combine de nombreuses techniques avancées telles que la distillation de modèles et le mécanisme d'attention multidirectionnelle, ce qui permet d'optimiser les performances même en utilisant un matériel moins avancé.
Auparavant, DeepSeek utilisait le GPU H20 de Nvidia; mais dans la nouvelle génération, ils sont passés aux puces développées par Huawei.
Selon l'annonce, le DeepSeek V4 Pro atteint des performances élevées dans les tests de raisonnement et peut rivaliser avec les meilleurs modèles d'OpenAI ou de Google dans certaines tâches.
Cependant, la société reconnaît également que ses modèles sont encore environ 3 à 6 mois plus lents que les systèmes les plus avancés en termes de connaissances générales.
Le point le plus notable réside dans la stratégie de prix. DeepSeek continue de maintenir son avantage de faible coût lorsque le V4 Flash coûte à partir de seulement 0,14 USD par million de tokens entrants et 0,28 USD à la sortie. Ceci est considéré comme un chiffre bien inférieur à celui des produits équivalents sur le marché.
Pendant ce temps, le V4 Pro a également un prix plus compétitif que les modèles haut de gamme tels que Gemini ou GPT.
L'apparition de la gamme V4 montre que DeepSeek poursuit sa propre voie, qui est d'optimiser les performances par rapport aux coûts, au lieu de se contenter de la course à la taille et à la puissance de calcul. Cela contribue à changer la vision des coûts de développement de l'IA, tout en augmentant la pression concurrentielle dans l'ensemble du secteur.
Dans un contexte où les grandes entreprises technologiques investissent continuellement massivement dans l'IA, le fait que DeepSeek fournisse un modèle open source, bon marché mais très efficace, pourrait stimuler une vague d'applications plus large.
Si cet avantage est maintenu, l'entreprise chinoise a la capacité de continuer à remodeler la course mondiale de l'IA dans les années à venir.