Nous avons testé Claude, le concurrent ChatGPT créé par Anthropic.  Et il se comporte très bien

Son API est désormais beaucoup moins chère, mais ChatGPT Plus coûtera toujours le même prix

Lors de sa conférence accrocheuse pour les développeurs, OpenAI’s DevDay, Sam Altman a annoncé deux nouvelles importantes : le lancement de GPT-4 Turbo et le lancement prometteur de sa propre boutique d’applications, le GPT Store. En réalité, il y a eu une autre surprise : une baisse de prix qui, bien sûr, n’est pas pour tout le monde.

Guerre des prix. Après la présentation de GPT-4 Turbo, Sam Altman a passé quelques minutes à livrer l’une des plus agréables surprises de la journée : la baisse de prix de l’API de ce chatbot, désormais trois fois moins chère pour les input tokens (ce qui veut dire que l’on peut, par exemple utiliser des textes longs pour les résumer et cela ne nous coûte pas une fortune) et deux fois moins cher pour les tokens de sortie (GPT-4 Turbo peut donner des réponses deux fois plus longues qu’avant pour le même prix).

Mais uniquement pour l’API. Malheureusement, cette baisse de prix affecte l’API, mais pas les utilisateurs finaux : l’abonnement ChatGPT Plus, par exemple, n’a pas été affecté. La mesure s’adresse aux développeurs de solutions basées sur GPT-4 Turbo et constitue un moyen direct et puissant de convaincre ces développeurs de parier sur cette solution.

Moins cher, mais aussi meilleur. Cette version survitaminée appelée GPT-4 Turbo réduit non seulement ses prix, mais est plus puissante et polyvalente que le GPT-4. Pour commencer, il dispose d’une fenêtre contextuelle allant jusqu’à 128 000 jetons, ce qui est fantastique, mais il est également plus à jour (jusqu’en avril 2023) et intègre à la fois DALL-E 3, GPT4-V (entrées d’image) et Chuchotez dans l’API. Les réponses sont également jusqu’à deux fois plus rapides, ce qui démontre l’évolution du modèle.

Mais les concurrents font pression . Les prix des alternatives sont encore meilleurs : GPT-4 Turbo facturera 3 $ pour un million de jetons d’entrée (fenêtre contextuelle de 16 000 jetons), tandis que PaLM 2 facturera 0,5 $ pour chaque million de caractères (un jeton se compose de plusieurs caractères, il est donc difficile pour assimiler et ils ne spécifient pas la fenêtre de contexte). Claude 2 facture 11,02 $ par million de jetons (mais avec une fenêtre contextuelle de jetons de 100 000 jetons beaucoup plus puissante). Et puis nous avons LLaMA 2 de Meta, qui est Open Source et disponible entièrement gratuitement.

Si vous ne pouvez pas battre votre ennemi, baissez les prix. Cette décision constitue une menace unique pour les concurrents actuels d’OpenAI. Parmi eux, se distinguent Google et son LLM PaLM 2, mais aussi le plus intéressant Anthropic (dans lequel Google et Amazon ont investi). Ici, il est évident que ce que souhaite OpenAI, c’est que son API soit la plus populaire parmi ceux qui développent des applications d’intelligence artificielle. Comme dirait Ballmer : « Développeurs, développeurs, développeurs ! »

Les chatbots devraient devenir moins chers. S’il est moins cher pour les entreprises de proposer leurs chatbots et applications d’IA basés sur GPT-4 Turbo, il serait raisonnable que ces chatbots baissent également le prix, mais il n’est pas clair que cela se produira car tout le monde commence à vraiment en tirer profit. sur ces solutions. Nous en avons un bon exemple avec Microsoft et son Copilot 365. La société de Redmond, qui a investi des milliards de dollars dans OpenAI et qui permet à cette dernière de s’appuyer sur une infrastructure Azure, ne va pas manquer l’occasion de rentabiliser son investissement.