Anthropic et OpenAI savent que là où l’IA gagne de l’argent, c’est dans les entreprises. Ils ont trouvé un moyen de contourner cette stratégie

Anthropic et OpenAI savent que là où l’IA gagne de l’argent, c’est dans les entreprises. Ils ont trouvé un moyen de contourner cette stratégie

Nous, les utilisateurs finaux, n’avons plus beaucoup d’importance pour les géants de l’IA. Ces entreprises confirment que les revenus sont désormais concentrés dans le monde professionnel et s’activent déjà pour conquérir ce segment. Et s’ils doivent le faire entreprise par entreprise, qu’il en soit ainsi, car désormais OpenAI et Anthropic sont un peu moins des entreprises d’IA et un peu plus de conseil.

L’IA est plus commerciale que jamais. Anthropic et OpenAI ont compris que le véritable business de l’IA ne réside pas actuellement dans les abonnements individuels à 20 $, mais dans l’intégration de leurs modèles d’IA dans tous types d’entreprises. Les deux sociétés ont lancé presque simultanément des alliances avec d’autres sociétés pour fournir des services de conseil. L’objectif est simple : cesser d’être des outils web externes pour devenir le « système d’exploitation » de milliers d’entreprises à travers ces canaux de vente exclusifs.

Anthropique d’un côté… La société dirigée par Dario Amodei a formé une société avec Blackstone, Goldman Sachs et Hellman & Friedman évaluée à 1,5 milliard de dollars. Cette nouvelle société agira comme un cabinet de conseil amenant Claude directement dans les environnements opérationnels des entreprises de taille moyenne, des banques de taille moyenne aux fabricants locaux en passant par les systèmes de santé. Ces sociétés se sont engagées à fournir 300 millions de dollars chacune aux ingénieurs en IA pour travailler en étroite collaboration avec ces clients afin d’intégrer des solutions personnalisées.

…et OpenAI d’autre part. À son tour, la société de Sam Altman n’a pas tardé à reproduire cette initiative avec la création de ce qu’on appelle The Development Company, une entité évaluée à environ 10 milliards de dollars. Il est soutenu par des fonds tels que TPG, Bain Capital et SoftBank. Théoriquement, OpenAI a déjà levé 4 milliards de dollars pour accélérer l’adoption de ses modèles d’IA dans plus de 2 000 entreprises qui font déjà partie des portefeuilles de ces investisseurs. L’initiative est dirigée par Brad Lightcap, jusqu’à présent COO de l’entreprise, et qui souhaite faire des modèles de la famille GPT une partie intégrante des opérations de tous types d’entreprises.

Les ingénieurs sur la ligne de mire. Pour promouvoir ces stratégies, les deux sociétés adoptent le modèle dit du « Forward Deployed Engineer » (FDE), un système de déploiement déjà popularisé par Palantir et traditionnellement utilisé par les cabinets de conseil. Au lieu de simplement vendre une API, Anthropic et OpenAI enverront leurs ingénieurs travailler avec des médecins, des analystes financiers ou du personnel informatique afin que leurs modèles d’IA puissent être intégrés de manière transparente dans les flux de travail réels de ces professionnels.

Rendre public comme objectif. Ces derniers mois, nous semblons vivre une course contre la montre vers l’introduction en bourse dans les deux cas. Avec des valorisations absolument stratosphériques (OpenAI 852 milliards, Anthropic environ 900 milliards), la pression pour justifier ces chiffres auprès du marché public est immense. L’intégration d’outils de programmation tels que Claude Code a été un moteur évident de la croissance récente, mais la véritable mine d’or réside dans l’automatisation des processus dans des secteurs comme la santé ou la finance. Si celles-ci ne parviennent pas à se développer rapidement, la bulle de valorisation pourrait se dégonfler avant ces introductions en bourse.

Conflits d’intérêts. Lorsqu’un fonds de capital-risque investit dans un fournisseur de technologie et fait simultanément pression sur les sociétés de son portefeuille pour qu’elles adoptent cette même technologie, la concurrence cesse d’exister. De nombreuses entreprises n’auront pas vraiment de choix en fonction de la qualité des produits. Ce qui est ici encore renforcé, c’est cette « économie circulaire » dans laquelle l’innovation n’est pas choisie, mais plutôt imposée par des intérêts financiers et commerciaux. Le client n’achète pas parce qu’il a besoin de l’outil, mais parce que son propre propriétaire financier a un intérêt dans celui qui fournit cet outil.

Mais l’IA ne va-t-elle pas tout automatiser ? La dépendance au modèle FDE est paradoxale. La théorie nous dit que les logiciels doivent être reproductibles à l’infini à un coût marginal nul. Cependant, ces alliances démontrent que l’IA n’est pas encore suffisamment intelligente pour fonctionner sans supervision humaine directe. Nous avons besoin de quelqu’un pour nous apprendre à bien l’utiliser, disent les entreprises, et OpenAI et Anthropic vont profiter de ce besoin même si nous n’avons en réalité qu’un conseil personnalisé de luxe. Pour l’instant, l’IA fera davantage partie des services proposés par un cabinet de conseil que d’un outil « plug and play » véritablement autonome.

Nouvel emploi : ingénieur de déploiement. Désormais, Anthropic et OpenAI ne seront plus seulement des entreprises d’IA : elles seront également des cabinets de conseil en manque de main d’œuvre. Cela montre également que si l’IA supprimera théoriquement des emplois, elle en créera également de nouveaux. Nous sommes ici confrontés à une demande croissante d’« ingénieurs de déploiement » – OpenAI en fait déjà la demande –, des professionnels qui sont justement chargés d’adapter ces modèles d’IA aux besoins des entreprises qui souhaitent les mettre en œuvre dans leur vie quotidienne.

Et les données, quoi. Il existe un autre problème fondamental : les entreprises de taille moyenne n’auront pas beaucoup de capacité à gérer leur souveraineté en matière de données. Pour que Claude ou GPT fonctionnent correctement dans l’entreprise, ils auront besoin d’accéder à des flux de travail critiques, des dossiers médicaux ou des données financières sensibles. Et lorsqu’on cède ce contrôle à des tiers, ceux-ci restent vulnérables. De plus : la sécurité de ces données est compromise car pour les traiter, elles doivent quitter et être traitées dans le cloud d’un fournisseur externe. Les modèles d’IA de ces entreprises peuvent également probablement tirer des leçons de ces processus, même s’il est raisonnable de penser que les politiques de zéro conservation des données entreront en jeu ici.

Images | TechCrunch | Wikimédia Commons

À Simseo | La Maison Blanche veut examiner les nouveaux modèles d’IA avant que quiconque ne les utilise : d’abord le Pentagone, puis le reste du monde