Anthropic a vu que leurs utilisateurs n'arrêtent pas d'utiliser le plan de 200 euros par mois de leur IA. Ils ont dû arrêter leurs pieds

Anthropic a vu que leurs utilisateurs n'arrêtent pas d'utiliser le plan de 200 euros par mois de leur IA. Ils ont dû arrêter leurs pieds

Anthropic a annoncé de nouvelles limites hebdomadaires pour son Claude qui sont déjà entrés en vigueur, affectant en particulier Claude Code, son outil de programmation par l'intelligence artificielle. La mesure arrive après que certains utilisateurs ont exécuté l'outil en continu 24 heures par jour, consommant des ressources équivalentes à des dizaines de milliers de dollars avec les abonnements les plus chers de 200 dollars par mois.

Il y a de la saturation et les comptes ne sortent pas. Les développeurs les plus intensifs mettent une canne sur des serveurs anthropes, les saturant d'une utilisation qui va bien au-delà de ce que l'entreprise avait prévu au début. Certains programmeurs ont configuré le code Claude pour fonctionner en permanence en arrière-plan, automatiser les tâches et générer du code sans s'arrêter. Cela a fait que Claude Code a subi des chutes partielles ou totales au moins sept fois au cours du dernier mois, selon la page de statut anthropique.

Nouvelles limites. Bien sûr, les utilisateurs auront des limites redémarrées tous les sept jours, en plus des cinq limites actuelles. Les utilisateurs du plan professionnel (20 $ par mois) pourront utiliser entre 40 et 80 heures par semaine avec le Sonnet 4. Ceux du plan maximum de 100 $ auront entre 140 et 280 heures avec Sonnet 4 et jusqu'à 35 heures avec Opus 4. Le plan maximum de 200 dollars associera à moins de 5% de ses utilisateurs.

Ce n'est pas un cas isolé. D'autres entreprises du secteur vivent des situations similaires. Cursor, l'outil de programmation populaire avec l'IA, a modifié sa stratégie de tarification en juin pour arrêter les utilisateurs les plus intensifs de leur plan de 0 dollars, bien qu'il ait dû s'excuser de ne pas bien communiquer les changements. Replit, un autre rival dans l'espace du programme aidé par l'IA, a également mis en œuvre des mesures similaires le même mois.

Il est clair que les entreprises dédiées à l'IA connaissent leurs plans et étudient l'utilisation par leurs utilisateurs. Qu'il y ait des changements de prix dès que c'est un symptôme qu'ils prennent toujours leur pouls tout en cherchant un moyen pour que l'entreprise sorte de rentable.

Limites cachées. L'un des problèmes de Claude est qu'il n'offre pas un comptable qui permet aux utilisateurs de savoir combien ils consomment en temps réel. Les développeurs doivent devenir « aveugles » jusqu'à ce qu'ils courent directement avec la limite, ce qui génère de la frustration, en particulier parmi ceux qui paient les abonnements les plus chers. De plus, la société a détecté que certains utilisateurs partagent et restent des comptes, ce qui rend l'utilisation de ces comptes encore plus intensive.

Un modèle commercial expérimental. Anthropic s'est engagé à offrir « d'autres options » pour des cas d'utilisation intensive à l'avenir, mais pour le moment, la priorité est de maintenir un service stable pour la plupart des utilisateurs. Les abonnés du plan Max peuvent acheter une utilisation supplémentaire aux prix de l'API lorsqu'ils dépassent leurs limites. Garder un service IA génératif en tant que Claude est un défi, surtout si vous souhaitez garantir des performances maximales à tous les utilisateurs. C'est pourquoi nous voyons autant de changements dans leurs plans, et il ne sera pas rare de les voir dans le reste des alternatives.

Image de couverture | Anthropique

Dans Simseo | Il y a ceux qui croient que les meilleures AIS deviennent plus idiotes au fil du temps. Ce n'est pas une folie