Google fait face à deux guerres dans le domaine de l'IA : la première contre OpenAI et la seconde contre lui-même

Après le succès de ChatGPT, OpenAI fait face à son défi le plus difficile : survivre financièrement

Depuis que ChatGPT a trouvé la veine de intelligence artificielle générative, en moins d’un an, une grande partie du secteur technologique s’est lancée dans la poursuite de la nouvelle ruée vers l’or. Mais l’étonnement répandu parmi les savants et les profanes s’est dilué maintenant, après le premier choc. Et l’adoption massive d’OpenAI par les utilisateurs n’est qu’un bon début, loin de sa consolidation définitive en tant que leader du marché.

Pour consolider sa domination dans les services d’IA générative, OpenAI doit relever de nombreux défis. L’un des éléments les plus fondamentaux concerne votre compte de résultat. En tant que startup technologique, elle devrait investir d’abord dans l’adoption par les utilisateurs, puis rentabiliser son offre et, seulement plus tard, se soucier de la rentabilité. Cependant, il semble que l’entreprise presse le pas. Cette année ils ont pris soin d’augmenter leur chiffre d’affaires avec ChatGPT Pluset réfléchit déjà à la manière de réduire ses coûts pour alléger ses importantes dépenses de fonctionnement.

Peu de temps après le lancement de ChatGPT 3.5, Sam Altman, PDG d’OpenAI reconnu publiquement que le coût de fonctionnement du service saignait (il a utilisé l’expression anglaise « eye-watering »). A cette époque, le chatbot venait à peine d’éclore. Quelques mois plus tard, on estimait que l’IA générative serait un enjeu majeur pour la startup. 700 000 $ de dépenses quotidiennesquelque chose de plus que 20 millions par mois. À cela il faudrait ajouter les coûts de Dall-E et d’autres outils, qui consomment également des ressources informatiques.

Une des formules que l’entreprise envisagerait pour réduire ses dépenses d’exploitation, selon une note de Reuters citant des sources internes d’OpenAI, serait de créer vos propres jetons. Avec eux, vous pourrez optimiser le fonctionnement de votre logiciel et augmenter l’efficacité énergétique. C’est une stratégie que de nombreuses grandes entreprises technologiques ont adoptée ces dernières années.

Altman déjà prévenu que son entreprise pourrait être « la start-up la plus capitalistique de l’histoire de la Silicon Valley ». Elle parla en référence au développement futur de l’intelligence artificielle générale (celui capable d’accomplir n’importe quelle tâche intellectuelle imputable à un être humain), qui pourrait coûter 100 000 millions de dollars. Mais il n’est pas nécessaire d’entrer (pour l’instant) dans le domaine de la science-fiction pour que les dépenses montent en flèche.

ChatGPT

OpenAI doit constamment faire évoluer ses produits et publier de nouvelles mises à jour pour rester à la pointe de l’innovation. Tout cela implique un investissement continu. Quand Altman a été demandé lors d’un événement du MIT Si la formation du récent ChatGPT 4 avait coûté 100 millions de dollars (plusieurs fois plus que ChatGPT 3), il a répondu qu’il avait supposé une dépense plus élevée. Une réponse qui ne suggère pas si cela coûte juste un peu plus que ce chiffre ou bien plus. La startup travaille désormais sur la version 4.5 et L’une des raisons pour lesquelles il n’a pas été lancé directement en 5 serait les coûts. De plus, son ambition d’englober de plus en plus de domaines d’IA générative entraîne de nouvelles dépenses.

Selon L’information, les revenus d’OpenAI auraient augmenté de façon exponentielle et inattendue. L’entreprise comptait atteindre 1.000 millions de chiffre d’affaires en 2024 et pourrait y parvenir cette année. Avec ces chiffres, vos finances devraient être saines. Mais les dépenses de fonctionnement et de personnel doivent être soustraites de l’avalanche de revenus. En 2022, avec une consommation moindre de ressources, malgré un coût de développement élevé, il y aurait eu des pertes d’une valeur de 540 millions de dollars, également selon Les Informations citant des sources proches des finances de l’entreprise.

Le besoin de capitaux pour rivaliser sur un marché féroce

La relation d’OpenAI avec Microsoft résoudrait le problème économique, puisque le géant de la technologie aurait engagé 10 milliards de dollars rien que cette année, auxquels il faut ajouter 3 milliards supplémentaires. Mais l’accord entre les deux, comme la Fortune a su le reconstituer, étrangle les marges de la startup, qui serait obligée de reverser 75% de ses bénéfices à son partenaire jusqu’à ce qu’elle récupère son investissement. Lorsqu’elle le fera, elle devra payer 49 % des bénéfices jusqu’à ce qu’elle atteigne la somme colossale de 92 milliards de dollars.

La structure financière d’OpenAI est complexe. Elle a commencé comme une entité à but non lucratif dont la mission était de développer l’intelligence artificielle générale (AGI). Mais En 2019, elle a créé une organisation commerciale au sein de sa structure, et il l’a fait avec une particularité. Au lieu de recevoir des actions de la société, les investisseurs reçoivent le droit d’empocher une partie de ses bénéfices futurs. Idéalement, cela signifie qu’ils n’ont pas autant d’influence sur les décisions de l’entreprise. En effet, la startup indique qu’elle pourrait réinvestir tous les bénéfices jusqu’à atteindre son objectif d’atteindre l’IAG.

chatgpt

(Emiliano Vittoriosi/Unsplash)

On pourrait penser qu’OpenAI pourrait passer toute son existence sans distribuer un seul dollar à ses investisseurs, en réinvestissant toujours ce qu’elle gagne. Mais cette formule est une arme à double tranchant. Si les dépenses augmentent, l’une des façons pour les startups d’y faire face est de lancer de nouveaux tours de table. Et si OpenAI ne déclare pas de bénéfices, et donc ne distribue pas d’argent à ses investisseurs, cela dissuadera ceux qui sont encore à venir.

L’optimisation des coûts pourrait ressembler à un geste de bonne volonté envers les investisseurs et, en même temps, cela aiderait OpenAI à rendre ses produits plus durables économiquement. Il faut tenir compte du fait que leurs concurrents sont certaines des grandes entreprises technologiques, qui peuvent injecter un torrent de capitaux dans leurs projets. Google a lancé Bard cette année et récemment aurait mis Gemini à la disposition de certains développeurscapable de générer des textes, des images et de travailler avec des langages de programmation.

Les entreprises gardent jalousement leurs secrets.  OpenAI le sait et a donc introduit un ChatGPT axé sur la confidentialité.

Amazon s’est également lancé dans la course à l’IA générative. Elle a investi 1,25 milliard de dollars dans Anthropic, dont le service Claude est un rival direct de ChatGPT. Ce chiffre atteindra 4 milliards si certaines conditions sont remplies. Mais elle n’est pas la seule à soutenir cette startup. Google lui-même a participé à un tour de table qui a atteint 450 millions et prévoit d’injecter à nouveau de l’argent dans un nouveau qui atteindrait 2 000 millions.

Les chiffres donnent le vertige. Mais ils ne sont pas les seuls à être importants. Tout comme OpenAI a été intégré à l’offre de services cloud de Microsoft (Azure), les outils Anthropic sont déjà disponibles sur AWS, le service d’Amazon. Ainsi, du coup, le rival de ChatGPT accède à un énorme volume de clients potentiels. Dans le même temps, certaines fuites indiquent que Apple travaille sur sa propre IA générative, Ajaxappelés à travailler dans tous vos logiciels, comme eux Meta AI et Emu (pour les images) dans la famille d’applications Mark Zuckerberg.

Fabriquez vos propres chips comme débouché naturel

L’information de Reuters selon laquelle OpenAI envisagerait de créer ses propres puces s’inscrit dans ce cadre de concurrence. Ils seraient optimisés pour leurs services et éviteraient leur dépendance technologique vis-à-vis de Nvidia. Le projet s’inscrirait dans la tendance des grandes entreprises technologiques, qui cherchent à concevoir leurs propres processeurs pour atteindre des performances maximales dans leurs opérations.

Avec votre propre design, vous pouvez réaliser puces avec une efficacité plus élevée l’énergie, ce qui réduit les coûts des serveurs dans les centres de données. Quand Amazon a présenté son Inferentia Pour Alexa, ils ont annoncé avoir réduit le coût de l’assistant de 30 % et sa latence de 25 %. L’avantage devient encore plus pertinent dans les charges de travail très intensives, telles que l’intelligence artificielle générative. Ainsi Google a déjà présenté un nouveau processeur dans cette gammetandis que Meta travaille déjà sur son.

Puces électroniques

(Brian Kostiuk/Unsplash)

Tout indique que pour OpenAI, disposer de ses propres puces est une étape logique. Vous pourriez économiser une partie des énormes dépenses liées à l’exploitation de services comme ChatGPT et améliorer la compétitivité de votre logiciel, en termes de puissance de calcul.

La partie la plus difficile est de commencer à créer la première puce. Un personnel spécialisé est nécessaire, composé de ingénieurs référencés sur le marché, établir des relations avec les fournisseurs de composants, s’occuper de la logistique et, surtout, du capital à dépenser. Selon l’estimation du cabinet de conseil Digits to Dollars, fabriquer un processeur à partir de zéro pourrait coûter 270 millions de dollars. Mais la commande minimale de GPU autorisée par le marché atteint 3 milliards de dollars.

La perte de pertinence de Taiwan dans l'industrie des semi-conducteurs a déjà commencé

De plus, tout accord de fabrication avec un tiers comporte actuellement des risques. La quasi-totalité de la chaîne d’approvisionnement trouve ses racines, d’une manière ou d’une autre, en Chine ou à Taiwan, deux pôles d’une conflit géopolitique à trois, avec les États-Unis, qui ébranle le secteur manufacturier électronique. L’instabilité est accentuée par les problèmes d’approvisionnement auxquels est confrontée l’industrie des semi-conducteurs, exacerbés par les puces IA. Comme le TSMC taïwanais a souligné, le plus grand fabricant de puces au monde, il faudra environ 18 mois pour corriger le blocage des processeurs destinés à l’IA. Il sait bien de quoi il parle. Leurs usines sont les seules à fabriquer les H100 et A100 de Nvidia, précisément ceux que ChatGPT utilise pour fonctionner.

Ainsi, la conception de nos propres puces peut devenir une odyssée de développement technologique. Mais les avantages compétitifs qu’ils apportent sont alléchants pour OpenAI, qui semble avoir toutes les cartes en main pour entreprendre une initiative qui ne va pas sans difficultés.