GitHub et Claude sont clairs : c’est l’avenir qui en paie le prix
En tant qu’utilisateurs finaux, payer des frais mensuels pour utiliser un modèle d’IA est la norme pour accéder à des modèles plus complets et plus puissants. Cependant, les développeurs qui s’appuient sur un modèle d’IA pour alimenter leur outil ou leur application paient en fonction des jetons d’entrée et de sortie consommés (l’unité minimale de texte qu’un modèle traite lorsque nous l’utilisons, pour ainsi dire).
Ce que GitHub Copilot a annoncé a plus à faire qu’il n’y paraît, car il va désormais commencer à facturer les utilisateurs finaux via un forfait mensuel basé sur le nombre de jetons. Et cela a déclenché une sonnette d’alarme dans le secteur, car il pourrait s’agir d’une démarche que n’importe quelle autre entreprise pourrait facilement finir par imiter. Et le tout dans un contexte où les startups chinoises continuent de baisser les prix sur leurs modèles.
Copilot ne peut plus maintenir son modèle économique. GitHub a annoncé qu’à partir du 1er juin, il cesserait d’accepter les demandes pour ses forfaits premium actuels et commencerait à facturer les crédits IA à la place. Chaque forfait mensuel comprendra un nombre de crédits équivalent au prix de l’abonnement : toute personne payant 10 $ par mois pour Copilot Pro recevra 10 $ de crédits.
À partir de là, la consommation est mesurée en jetons, y compris les jetons d’entrée, de sortie et de cache. C’est une démarche similaire à celle où l’on utilise un modèle de génération d’images ou de vidéos : une utilisation qui dépend des crédits et que l’on recharge en fonction de l’utilisation.
La raison du changement, selon l’entreprise, est que jusqu’à présent, une consultation rapide et une session de programmation autonome de plusieurs heures coûtaient le même prix à l’utilisateur. GitHub prétend avoir absorbé depuis longtemps cette différence de coût, mais reconnaît que le modèle n’est plus viable.
Ce qui change exactement. Les prix de base des forfaits ne sont pas touchés :
- Copilot Pro est toujours à 10 $.
- Affaires en 19.
- Entreprise en 39.
Mais : ce que vous achetez avec eux n’est plus le même. Auparavant, la limite était le nombre de demandes. Désormais, chaque interaction avec le modèle consomme des crédits à un rythme qui dépend du modèle choisi et du volume de tokens. Selon les tarifs publiés par la société elle-même, les modèles OpenAI les plus avancés peuvent coûter jusqu’à 30 dollars par million de jetons de sortie. En revanche, une séance agentique, où l’assistant exécute les tâches de manière autonome, peut facilement multiplier les dépenses d’une semaine de consultations normales.
Ed Zitron, critique bien connu et expert en technologie, a déclaré que, selon les documents internes auxquels il a eu accès, les coûts hebdomadaires de Copilot avaient presque doublé depuis janvier, coïncidant avec la montée en puissance des assistants agents.
Ce n’est pas seulement Copilot. Selon The Information, Anthropic a commencé à facturer à ses grandes entreprises clientes le coût réel de l’informatique Claude, abandonnant toute remise. Anthropic lui-même a même brièvement testé la suppression de Claude Code de son forfait Pro à 20 $/mois. Les grandes entreprises d’IA subissent depuis un certain temps des pertes sur leurs modèles d’abonnement pour attirer les utilisateurs, et tentent désormais de répercuter les coûts réels sur ceux qui consomment le plus.
La Chine fait le contraire. Alors que l’Occident ajuste les prix à la hausse, plusieurs des principales entreprises technologiques chinoises ont adopté une stratégie complètement différente : transformer les jetons en une marchandise bon marché, presque comme une entreprise de télécommunications distribuant des données mobiles.

DeepSeek a annoncé cette semaine une réduction de 90 % du prix des accès en cache à son API (lorsque le modèle réutilise le contexte déjà traité), portant le coût minimum d’entrée à environ 0,14 $ par million de tokens. Pour son modèle le plus avancé, DeepSeek-V4-Pro, ce chiffre est 32 fois moins cher par conversation que l’équivalent GPT-5.5 d’OpenAI, selon les données de l’entreprise.
Alibaba, pour sa part, vient de séparer son activité IA et de la rebaptiser Token Hub Business Group, précisant ainsi quel est son engagement stratégique. Comme l’a partagé Reuters, les modèles chinois coûtent en moyenne un sixième du prix par jeton que ceux d’OpenAI, Anthropic, etc.

Pourquoi cela peut fonctionner et pourquoi cela a une limite. L’avantage de la Chine en matière d’inférence (le moment où un modèle répond à une demande) repose sur une électricité moins chère, une efficacité logicielle qu’elle n’a eu d’autre choix que de développer de force en raison des restrictions imposées par Washington sur les puces et une course intérieure ultra-compétitive qui force les prix à baisser constamment. La consommation de tokens en Chine est passée de 100 milliards par jour fin 2025 à 140 milliards en mars 2026, selon les estimations recueillies par Reuters.
Cependant, comme le soulignent les médias, cette stratégie a un problème sous-jacent : les tokens ne sont pas interchangeables. Un million de jetons du système le plus avancé d’Anthropic valent bien plus que le même volume traité par un modèle inférieur. Les entreprises qui délèguent des tâches complexes à des agents IA finiront par payer pour la qualité, et pas seulement pour le volume. Et là, les modèles chinois restent à la traîne par rapport aux modèles occidentaux les plus avancés.
Image de couverture | Alexandre Mils et Roman Synkevych
À Simseo | Anthropic a décidé de résister aux pressions du Pentagone. Depuis, toutes les autres technologies ont disparu
