DeepSeek a lancé son nouveau modèle de raisonnement. C'est gratuit et bat GPT-5

DeepSeek a lancé son nouveau modèle de raisonnement. C'est gratuit et bat GPT-5

DeepSeek a introduit DeepSeek-V3.2 et DeepSeek-V3.2-Speciale. Ce sont des modèles d’IA qui combinent un raisonnement complexe avec la capacité d’utiliser des outils de manière autonome.

Pourquoi c'est important. La société de Hangzhou affirme que DeepSeek-V3.2 correspond aux performances de GPT-5 dans plusieurs tests de raisonnement. Le modèle Speciale atteint le niveau du Gemini-3 Pro et a remporté des médailles d'or aux Olympiades internationales de mathématiques et d'informatique.

Le contexte. DeepSeek a surpris le monde en janvier avec un modèle révolutionnaire en termes d'efficacité et de coût. Désormais, la mise est encore plus forte avec des systèmes open source qui lancent le défi directement à OpenAI et à Google en termes de capacités de raisonnement.

Innovation technique. DeepSeek-V3.2 intègre pour la première fois la « réflexion » directement dans l’utilisation des outils. Vous pouvez raisonner en interne lorsque vous effectuez des recherches sur le Web, utilisez une calculatrice ou écrivez du code.

Le système fonctionne selon deux modes :

  1. Avec un raisonnement visible (similaire au raisonnement vu dans ChatGPT et compagnie).
  2. Ou sans aucun raisonnement.

La chaîne de pensée persiste entre les appels de l'outil et n'est redémarrée que lorsque l'utilisateur envoie un nouveau message.

Comment ils y sont parvenus. Les chercheurs ont développé « DeepSeek Sparse Attention (DSA) », une architecture qui réduit considérablement le coût de calcul lié au traitement de contextes longs.

Le modèle maintient 671 milliards de paramètres au total mais n'en active que 37 milliards par .

En chiffres. DSA réduit le coût de l’inférence dans les contextes longs d’environ 50 % par rapport à l’architecture dense précédente. Le système traite 128 000 fenêtres contextuelles en production.

La formation de renforcement a consommé plus de 10 % du nombre total de pré-entraînement. L'équipe a généré plus de 1 800 environnements synthétiques et 85 000 tâches pour former les capacités des agents.

Les résultats. DeepSeek-V3.2-Speciale a remporté la médaille d'or à l'Olympiade internationale de mathématiques 2025, à l'Olympiade internationale d'informatique 2025, à la finale mondiale ICPC 2025 et à l'Olympiade mathématique chinoise 2025.

Les deux modèles sont disponibles dès maintenant.

  • La V3.2 fonctionne sur l'application, le Web et l'API.
  • V3.2-Speciale uniquement par API, du moins pour l'instant.

Entre les lignes. DeepSeek a publié les poids complets et le rapport technique du processus de formation. Cette transparence contraste avec ce que font habituellement les grandes entreprises technologiques américaines. Même ceux qui proposent des modèles open source comme Llama, avec un astérisque.

La startup chinoise veut démontrer que les systèmes open source peuvent rivaliser avec les modèles propriétaires les plus avancés. Et ce, tout en continuant à réduire les coûts.

Oui, mais. Les audiences ne reflètent pas toujours les performances sur les tâches du monde réel. Les comparaisons directes avec GPT-5 ou Gemini-3 Pro dépendent de mesures spécifiques qui peuvent ne pas capturer toutes les dimensions pertinentes.

De plus, l’intégration d’outils en mode raisonneur doit encore être testée dans des cas d’utilisation complexes et réels. La réduction du coût n’est pas aussi importante si la qualité des réponses ne tient pas le coup.

À Simseo | Guide DeepSeek : 36 fonctionnalités et choses que vous pouvez faire gratuitement avec cette IA

Image en vedette | Solen Feyissa