La start-up chinoise d'IA DeepSeek vient d'annoncer le modèle DeepSeek-Math-V2 une nouvelle étape dans la direction du développement de l'intelligence artificielle capable d'élucider les mathématiques à un niveau élevé.
Lancé le 27 novembre heure locale le modèle est spécialement conçu pour créer et vérifier soi-même des théories complexes tout en démontrant une forte capacité de preuve grâce à un ensemble de compétences de raisonnement améliorés.
DeepSeek-Math-V2 est une version approfondie dans le domaine des mathématiques héritée de DeepSeek-V3.2-Exp un modèle expérimental qui a été présenté en septembre de cette année.
L'ensemble du poids du modèle est rendu public sous la licence open source Apache 2.0 sur de grandes plateformes telles que Hugging Face et GitHub ce qui permet à la communauté de recherche d'accéder et d'étendre.
Selon DeepSeek le nouveau modèle conçu autour de la philosophie de 'lập luận tự kiểm chứng' comprend deux composants principaux : un processus de vérification spécialisé dans la vérification étape par étape des preuves mathématiques ; un processus de création de thématiques capable de détecter et de corriger automatiquement les erreurs.
Cette approche aide le modèle non seulement à trouver la solution finale mais garantit également l'exactitude de l'ensemble du processus de raisonnement.
Dans le document technique fourni DeepSeek estime que les méthodes basées sur l'apprentissage renforcé visant à optimiser les réponses finales ont aidé les LLM à obtenir des résultats élevés dans des concours tels que AIME ou HMMT mais ont maintenant commencé à révéler des limites.
La bonne réponse à la fin ne garantit pas que le modèle a été correctement argumenté en particulier pour les tâches de preuve qui exigent une argumentation rigoureuse étape par étape.
Par conséquent DeepSeek-Math-V2 est conçu pour étendre la capacité de raisonnement en se vérifiant lui-même et en renforçant le test de logique pendant la course.
En termes de performances Math-V2 a obtenu des résultats impressionnants lorsqu'il a été testé sur les problèmes des Olympiades internationales de mathématiques (OMI) 2025 et des Olympiades de mathématiques CREST (CMO) 2024.
Le modèle a été reconnu ayant obtenu un score équivalent à la médaille d'or IMO 2025 et a également obtenu 118/120 points dans le problème du concours Putnam 2024 l'un des concours de mathématiques les plus difficiles au monde.
DeepSeek estime que ces résultats prouvent que l'argument mathématique auto-testable est une voie de développement réalisable ouvrant des opportunités pour construire des systèmes d'IA mathématiques plus puissants à l'avenir.
Notamment les performances de Math-V2 sont considérées comme égales aux modèles d'OpenAI et de Google DeepMind qui sont deux entités qui dominent le domaine de l'IA mathématique.
2025 est également la première fois que l'IMO reconnaît officiellement les modèles d'IA participants marquant la transformation de la communauté mathématique.
Bien que Google fasse partie du premier groupe reconnu DeepSeek et OpenAI n'ont pas encore été inclus dans cette liste.
Les experts estiment que le développement de modèles d'IA capables d'élucider en profondeur peut aider à résoudre de nombreux problèmes qui durent des décennies dans des domaines tels que la cryptographie la physique la théorie ou la découverte de l'espace.
DeepSeek-Math-V2 devrait être un tremplin important pour la prochaine génération d'IA mathématiques.