le rendre si bon marché qu'il soit "invisible" pour l'utilisateur

le rendre si bon marché qu'il soit « invisible » pour l'utilisateur

DeepSeek est la pointe de la lance lorsque l’on parle d’intelligence artificielle chinoise. Non seulement il a d'excellentes performances, mais Microsoft lui-même a tiré la sonnette d'alarme en soulignant que sa politique lui permet de gagner des utilisateurs sur des marchés où d'autres comme OpenAI traversent une période plus difficile. D'autres entreprises comme Tencent ou Alibaba font des pas de géant dans la lutte pour l'IA, et il y a quelques jours ByteDance -TikTok- a présenté un Seedance 2.0 qui est impressionnant… et qui donne déjà des maux de tête.

Mais les plus grands ne sont pas les seuls, et comme la Chine se concentre sur le développement de la robotique et de l’IA, nous devons parler d’autres « acteurs » plus petits. Zhipu AI et MiniMax sont deux des « tigres » qui, en quelques années seulement, ont levé des centaines de millions de dollars et qui ont des modèles qui ont une philosophie radicalement différente de celle d'OpenAI et des autres géants occidentaux.

Leurs modèles sont vendus comme des compagnons de vie, des outils que l’on peut utiliser au quotidien sans se soucier du prix. Et, dans ce discours, MiniMax vient de lancer le M2.5, un modèle qui veut devenir un « employé numérique » et que ses dirigeants ont classé comme son premier « modèle frontière » si bon marché qu'il ne vaut pas la peine d'en mesurer le prix.

L'IA est trop bon marché pour se soucier du prix

M2.5 est désormais officiel et, comme le rapporte le South China Morning Post, MiniMax n'a pas voulu perdre l'occasion de le lancer au cours d'une semaine mouvementée pour l'industrie de l'IA en Chine. Techniquement, M2.5 est un LLM (grand modèle de langage) qui peut gérer environ 230 milliards de paramètres au total, mais n'en utilise que 10 milliards par jeton. S'agissant d'un système mixte d'experts, chaque appel implique uniquement les experts directement nécessaires pour résoudre la demande.

Pour ramener le chiffre à la terre, cela signifie qu'il s'agit d'un modèle performant, mais que, à la demande des utilisateurs, il n'utilise pas tout son potentiel, ce qui implique de faibles coûts d'inférence et des prix très bas pour les utilisateurs. Les responsables affirment que le prix n'est que d'un dollar par heure de fonctionnement continu, en dépensant 100 jetons par seconde. Cela signifie que vous pouvez avoir un « agent » travaillant en continu pendant tout ce temps à un prix entre 10 et 20 fois inférieur à d'autres modèles comme Opus, Gemini 3 Pro ou GPT-5.

Une politique aussi agressive fait du M2.5 un modèle « trop bon marché pour être quantifié », selon les responsables, facilitant une adoption massive car l'utilisateur peut cesser d'optimiser chaque ordre qu'il donne à l'IA. Cette expression « trop bon marché pour être mesurée » est un clin d’œil au commentaire historique dans lequel il a été souligné que l’électricité issue de l’énergie nucléaire serait trop bon marché pour être mesurée.

Indice de référence minimax
Indice de référence minimax

Score interne aux différents tests | Image : MiniMax

Et ce qui est important, c’est que M2.5 n’est pas un simple chatbot. Il est disponible sur des plateformes telles que Ollama, HuggingFace, ModelScope en Chine ou GitHub, et MiniMax lui-même souligne que 30 % des tâches internes de l'entreprise sont déjà réalisées par M2.5 lui-même. De plus, 80 % du nouveau code est généré par le modèle. Autrement dit, il est plus optimisé pour travailler seul que pour discuter. Ce code créé par code thing n'est pas exclusif à M2.5, et Codex et Opus sont également dans ce bateau.

Le modèle a déjà été testé et, bien qu'il obtienne des résultats notables dans certaines tâches, notamment par rapport à d'autres modèles, son score est loin de celui des modèles fermés. Dans les résultats internes de l'entreprise, elle a réussi à doubler le score du modèle précédent, le M2.1, mais comme le souligne SCMP, ces scores de référence internes sont difficiles à vérifier de manière indépendante.

Repères Minimax25 à l'échelle 1
Repères Minimax25 à l'échelle 1

Benchmark interne en codage | Image : MiniMax

Mais au final, qu’il soit plus ou moins performant par rapport à d’autres modèles, le MiniMax M2.5 est un exemple de plus de la stratégie que met en avant la Chine en matière d’intelligence artificielle. Alors que les États-Unis s’efforcent de démontrer qu’ils disposent de modèles propriétaires de plus en plus puissants et performants, l’IA s’inscrit dans un discours dans lequel elle vise à promouvoir des modèles moins chers et plus utiles pour l’utilisateur.

La Chine a trouvé une stratégie inhabituelle pour éviter les faux pas des États-Unis en matière d'IA : miser sur l'Open Source

Cela implique non seulement qu'ils ont un bon rapport performances/prix, mais aussi qu'ils peuvent fonctionner sur des appareils du quotidien sans une énorme puissance de calcul. Et maintenant que certaines entreprises chinoises sont censées pouvoir mettre la main sur certains des meilleurs GPU de NVIDIA pour entraîner l'IA, le coup de pouce apporté à cette stratégie pourrait être notable.

Images | MiniMax (édité)

À Simseo | Il existe une autre course tout aussi importante que celle des puces pour gagner l’IA et dans laquelle la Chine prend la tête.