des abonnements de plus en plus chers
Nous utilisons ChatGPT, Claude, Copilot ou Gemini pour que l'IA génère des réponses à nos questions comme si de rien n'était. Après tout, dans de nombreux cas, c’est gratuit, n’est-ce pas ? C'est pour les utilisateurs pour le moment, oui, mais toutes ces réponses – sans parler des images ou des vidéos générées par l'IA – coûtent très cher à ces entreprises. Combien? Aucun ne le dit.
brûler de l'argent. Nous avons déjà parlé de la façon dont OpenAI et le reste des entreprises qui ont opté pour l’IA brûlent de l’argent comme s’il n’y avait pas de lendemain. Sam Altman a récemment indiqué qu'OpenAI ne serait pas rentable avant 2029, mais d'ici là, s'ils y parviennent, ils continueraient à perdre de l'argent. Beaucoup. Une analyse de certains analystes révèle à quel point la gestion et l'exploitation des modèles d'IA ont un coût énorme, et par exemple OpenAI aura estimé des pertes à 5 milliards de dollars… rien qu'en 2024 !
Difficile de connaître le coût réel de l’IA. Les entreprises n’ont pratiquement pas fourni de données sur le coût interne d’exploitation de ces services, même si dans le Washington Post elles ont indiqué en juin 2023 quelque chose qui est probablement vrai : les chatbots IA perdent de l’argent à chaque fois que vous les utilisez. Certaines études indépendantes soulignaient déjà en 2023 que le coût d'une simple question sur ChatGPT était de 36 centimes, et qu'OpenAI dépensait 700 000 $ par jour pour faire fonctionner son LLM.
Et maintenant les modèles veulent raisonner (et ça coûte plus cher). Le lancement de o1, le modèle OpenAI qui « raisonne », a été le signal de départ d'une alternative qui fait théoriquement moins d'erreurs et qui, même si elle met plus de temps à donner la réponse, le fait de manière plus complète et plus précise. Mais aussi plus coûteux : ces systèmes génèrent en réalité plusieurs réponses, les analysent et les examinent et conservent celle qu'ils jugent la plus appropriée à montrer à l'utilisateur. Et cela coûte plus cher à l’entreprise d’IA et à l’utilisateur.
C'est pourquoi l'abonnement de 200 $ par mois n'est qu'un début. Le fait qu'OpenAI ait lancé un abonnement de 200 $ par mois pour pouvoir utiliser son modèle de raisonnement sans limitations, o1, est un bon signe du coût élevé pour l'entreprise de proposer une « barre ouverte d'intelligence artificielle ». Certains utilisateurs et certains scénarios exploitent intensivement les chatbots IA, et ce sera dans les cas où les entreprises pourront préconiser de proposer des abonnements de plus en plus puissants… et coûteux.
Mais pour les images et vidéos, le coût est encore plus élevé. La génération de texte est la tâche la moins exigeante en ressources, mais elle est coûteuse. Il est également difficile d’estimer cette augmentation de coût car de nombreux facteurs entrent en jeu : efficacité des serveurs, complexité et résolution de l’image ou de la vidéo, etc. Néanmoins, il est probable que la génération d’une image coûtera plusieurs ordres de grandeur plus que la génération d’un texte, et la génération d’une vidéo coûtera également plusieurs ordres de grandeur plus que la génération d’une image.
Beaucoup d'énergie…John Hennessy, l'un des dirigeants d'Alphabet, a expliqué à Reuters que les réponses générées par un LLM consomment 10 fois plus d'énergie qu'une recherche Google classique. Les implications sont énormes – également pour l'environnement – et on estime en effet que la consommation d'énergie pourrait tripler en 2030. Surtout grâce aux centres de données qui sont en construction et qui seront chargés de gérer toutes ces demandes. Google et Microsoft consomment déjà à eux seuls plus de 100 pays différents.
…et de l'eau. Il existe également un problème avec l’eau nécessaire au refroidissement de ces centres de données. Selon une étude publiée par le Washington Post, demander à l’IA de nous écrire un email de 100 mots équivaut à consommer 519 millilitres d’eau.
En quête d’efficacité. Bien entendu, nous espérons que ces coûts de formation et d’inférence seront considérablement réduits à l’avenir. Le développement de nouvelles puces et de centres de données plus efficaces – et qui ne gaspillent pas d’eau, comme ceux conçus par Microsoft – peut y contribuer.
IA sur site. L’autre alternative qui peut aider sera l’adoption progressive de modèles « Edge AI » fonctionnant localement. Apple Intelligence en est un bon exemple, et ici l'entreprise propose d'utiliser certaines fonctions – attention, pas toutes – directement sur l'appareil, ce qui nous permet non seulement d'économiser de l'énergie, mais aussi de garantir la confidentialité de nos demandes et conversations avec notre mobile téléphone ou ordinateur.
Images | Simseo avec Grok
À Simseo | OpenAI a brisé son plafond. Leur plan Pro est un saut vers l'ultra-premium qui a tout le sens du monde