De plus en plus de voix au sein de l'industrie de l'IA commencent à remettre en question le PDG d'OpenAI

De plus en plus de voix au sein de l’industrie de l’IA commencent à remettre en question le PDG d’OpenAI

Chez OpenAI, ils voient un avenir dans lequel la semaine de travail devrait compter quatre jours. Et ce n’est pas tout : chaque citoyen devrait recevoir une part de la croissance économique générée par l’IA. Telles sont quelques-unes des propositions que l’entreprise a publiées hier dans le but de nous préparer à « l’ère de l’intelligence ».

Et le jour même où ils ont publié cette proposition pleine de bonnes et rassurantes intentions, un coup dur est arrivé pour le PDG d’OpenAI, Sam Altman. Une enquête publiée dans The New Yorker remet une nouvelle fois en question sa façon d’agir, très critiquée par les experts et ingénieurs qui ont travaillé avec lui. La conclusion de tous : mieux vaut ne pas faire confiance à Sam Altman.

L’arrivée de l’ère de l’intelligence. Ce qu’ils appellent « l’ère de l’intelligence » aura sans aucun doute un impact négatif dans certains domaines, mais OpenAI propose avec son document d’apporter des changements qui atténuent ces problèmes. Parmi les mesures les plus marquantes figure la création d’un « fonds de richesse public » qui distribuera les dividendes de l’IA directement aux citoyens, quelle que soit leur situation professionnelle.

Laissez les machines fonctionner (et payez-nous pour cela). Ils suggèrent également des taxes sur le travail automatisé pour financer la sécurité sociale, ainsi que des projets pilotes de semaines de travail de quatre jours sans réduction de salaire. La proposition est frappante et vise bien entendu à rassurer les citoyens face aux menaces telles que la perte d’emploi que peut entraîner l’adoption massive de l’IA. Le problème est que cette proposition arrive à un moment délicat pour une OpenAI en pleine crise de réputation.

Un écran de fumée ? Cette proposition optimiste contraste avec le rapport publié dans le New Yorker et dans lequel les auteurs ont interrogé plus de 100 personnes « ayant une connaissance directe de la manière dont Altman se comporte en affaires ». Et parmi eux, des rivaux comme Ilya Sutskever ou surtout Dario Amodei qui ont fondé leurs propres startups. Tous deux ont sévèrement critiqué Altman. Sutskever a accumulé des documents et des messages internes montrant la tromperie et la manipulation. Amodei a déclaré que l’obstacle à la sécurité de l’IA est Altman lui-même, qui laisse ce domaine au second plan par rapport à l’ambition de pouvoir personnel et de croissance excessive de l’entreprise. Pour ses anciens partenaires, Altman n’est pas un visionnaire, mais un acteur à la pose calculée.

Il dit une chose, il en fait une autre. Le scandale du licenciement et du retour ultérieur d’Altman était dû précisément à cette attitude dans laquelle le conseil l’accusait de n’avoir « pas été toujours franc dans ses communications ». C’est la même chose que nous avons lu à d’autres occasions : Altman a une double personnalité. Chez lui, le désir pathologique d’être aimé et accepté se mêle à une absence totale de souci des conséquences à long terme de ses méfaits. Il dit à ses interlocuteurs ce qu’ils veulent entendre, puis fait ce qu’il voulait vraiment depuis le début. C’est quelque chose que, par exemple, Karen Hao raconte encore et encore dans son livre « Empire of AI », dans lequel, il faut le dire, elle a commis une erreur lors du calcul de la consommation d’eau des centres de données mentionnés dans ses études. Dans le rapport, ils mentionnent comment le célèbre programmeur Aaron Swartz l’a connu avant sa mort en 2013 et a déjà commenté à son sujet « c’est un sociopathe ».

L’image publique est tout. La publication du document OpenAI intervient à un moment particulièrement critique pour l’entreprise, plongée dans une crise réputationnelle et stratégique. Anthropic a réussi à devenir le chouchou de l’industrie de l’IA – sans pour autant être proche de la perfection – et OpenAI s’est rendu compte qu’elle expérimentait trop d’applications d’IA qui n’étaient pas rentables et souhaite désormais se recentrer sur ce qui la rend rentable. Les bonnes intentions affichées dans le document tentent de mettre l’opinion publique de son côté au moment même où l’entreprise envisage son introduction en bourse.

Apprendre du passé. Les critiques d’Altman révèlent qu’il est un expert dans la conception de mécanismes de contrôle qui partent en fumée. Il soutient les réglementations sur l’IA (du moins celles qui le favorisent) et promeut publiquement les comités d’éthique, d’alignement et de sécurité de l’IA qu’il renverse ensuite en interne, du moins selon ceux qui travaillent avec lui. Cela s’est produit lorsqu’il a promis d’allouer 20 % de la capacité de calcul à l’équipe de super-alignement, pour ensuite n’abandonner qu’entre 1 et 2 % de cette capacité. Jan Leike, nommé co-responsable de cette équipe avec Sutskever, a démissionné en mai 2024, indiquant que « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits tape-à-l’œil », a-t-il expliqué dans un fil de discussion sur X. Il a fini par signer chez Anthropic.

Commentaires intéressés. Même si la carrière d’Altman à la tête d’OpenAI – avec comme exemple récent ce qui s’est passé avec le Pentagone – renforce les propos de ceux qui le critiquent, il faut rappeler que la concurrence dans ce secteur est actuellement féroce. Beaucoup de ceux qui participent au rapport sont des rivaux directs et donc leurs critiques, voilées ou non, sont en partie intéressées car elles nuisent à leur concurrent.

À Simseo | Une nouvelle génération de modèles d’IA est à nos portes et Anthropic doit les vendre : « Les plus grands et les plus intelligents »