Sam Altman a passé toute sa vie à dire une chose et à faire exactement le contraire. Et cette fois, cela n’a même pas pris 48 heures.

Sam Altman a passé toute sa vie à dire une chose et à faire exactement le contraire. Et cette fois, cela n’a même pas pris 48 heures.

Une superbe chanson de Mecano – je sais, très Kiss FM – disait que « le visage que vous voyez est une publicité pour Signal ». Et au cas où nos très jeunes lecteurs ne le sauraient pas, Signal est une marque de dentifrice. Et s'il y a quelqu'un dont le visage est exactement comme ça, c'est bien Sam Altman, PDG d'OpenAI, qui, avec un sourire parfait et convaincant, tente de convaincre le monde que son entreprise est tout aussi parfaite et convaincante.

Pour beaucoup de gens, ce n’est pas le cas aujourd’hui.

Que s'est-il passé ? Ces jours-ci, nous avons vu comment les États-Unis et leur ministère de la Défense (ou de la Guerre, comme ils aiment l’appeler maintenant) ont décidé que si une entreprise d’IA souhaite travailler avec eux, elle devra les laisser utiliser l’IA comme bon leur semble. Qu’il faut espionner massivement les gens ? Il l'espionne, totalement, nous l'avons déjà fait. Que devrions-nous dire à l’IA pour développer des armes autonomes mortelles ? Eh bien aussi.

Anthropique se lève. Mais voilà, précisément l’entreprise qui travaillait avec le Pentagone a déclaré que les oranges venaient de Chine. Anthropic, qui collabore depuis des mois avec le gouvernement – ​​Claude a été utilisé pour l'arrestation de Nicolas Maduro – a clairement indiqué qu'il y avait des lignes rouges qu'elle ne franchirait pas.

Si Anthropic ne le souhaite pas, laissez OpenAI le faire. Au Pentagone, ils ont menacé de faire d’Anthropic une entreprise paria, mais pour l’instant ils n’ont pris aucune mesure officielle. Ce qui s'est passé, c'est que le gouvernement américain a décidé de changer de partenaire technologique. OpenAI a remplacé Anthropic et semble avoir conclu un accord pour travailler avec les agences américaines de défense et de sécurité.

Capture d'écran 2026 03 02 À 14 35 32
Capture d'écran 2026 03 02 À 14 35 32

Sam Altman saisit l'opportunité. C'est ce qu'a indiqué Sam Altman, qui dans une annonce sur Twitter (je refuse toujours de l'appeler « X ») a expliqué que sa société avait accepté de déployer ses modèles sur le réseau classifié du ministère américain de la Guerre. Ce qui est curieux, c’est que cet accord établit les mêmes lignes rouges qu’Anthropic : pas d’espionnage sur les citoyens américains et pas d’armes autonomes. Dans l'annonce officielle, ils soulignent même que leur accord « comporte plus de garanties que n'importe quel accord précédent pour les déploiements classifiés d'IA, y compris celui d'Anthropic ». Il existe, par exemple, une exigence supplémentaire : que leurs modèles ne soient pas utilisés pour des systèmes de « crédit social » avec lesquels les citoyens sont évalués sur la base des informations collectées auprès d'eux.

Mais. Bien que Sam Altman et le blog de l'entreprise semblent imposer des limites à l'utilisation de l'IA par le ministère de la Guerre, les termes de cet accord contredisent les affirmations d'Altman. L'annonce mentionne un paragraphe spécifique de l'accord qui stipule explicitement ce qui suit :

Le ministère de la Guerre peut utiliser le système d'IA à toutes fins légales, conformément à la loi applicable, aux exigences opérationnelles et aux protocoles de sécurité et de surveillance bien établis. « Le système d'IA ne sera en aucun cas utilisé pour diriger de manière indépendante des armes autonomes dans les cas où le contrôle humain est requis par la loi, la réglementation ou la politique du ministère, et il ne sera pas non plus utilisé pour prendre d'autres décisions à haut risque nécessitant l'approbation d'un décideur humain tout aussi compétent. »

L’espionnage massif des citoyens américains est légal dans certains scénarios dans le cadre du Patriot Act adopté après les attentats du 11 septembre, et qui permettrait à l’IA de traiter les données et les communications collectées par les systèmes de surveillance de masse. Jeremy Lewin, un responsable du Département d'État, a indiqué que cet accord « découle du pilier de « tout usage légitime » » et souligne que ce que propose Altman concernant les lignes rouges n'est pas aussi clair qu'il y paraît.

Manifestations internes. Vendredi dernier, à 17h01, Anthropic devait accepter les conditions du Pentagone, mais il ne l'a pas fait. Au cours de cette matinée, plusieurs employés d'OpenAI et de Google ont manifesté leur soutien au positionnement éthique et moral de l'entreprise rivale, et près de 800 d'entre eux (681 de Google, 96 d'OpenAI) ont signé une lettre ouverte intitulée « Nous ne serons pas divisés ».

Altman dit une chose, en fait une autre. Dans une interview avec CNBC, Sam Altman a déclaré sur CNBC que malgré toutes les différences qu'il a avec Anthropic, « je leur fais confiance en tant qu'entreprise et je pense qu'ils se soucient vraiment de la sécurité ». Jeudi, le PDG d'OpenAI a envoyé une déclaration interne exprimant son souhait que « les choses se désamorcent entre Anthropic et le ministère de la Défense ». Le message est arrivé au moins deux jours plus tard, lorsqu'il a annoncé l'accord avec le même ministère.

Capture d'écran 2026 03 02 Au 15 11 05
Capture d'écran 2026 03 02 Au 15 11 05

Altman dit une chose, en fait une autre. Dans une interview avec CNBC, Sam Altman a déclaré sur CNBC que malgré toutes les différences qu'il a avec Anthropic, « je leur fais confiance en tant qu'entreprise et je pense qu'ils se soucient vraiment de la sécurité ». Jeudi, le PDG d'OpenAI a envoyé une déclaration interne exprimant son souhait que « les choses se désamorcent entre Anthropic et le ministère de la Défense ». Le message est arrivé au moins deux jours plus tard, lorsqu'il a annoncé l'accord avec le même ministère.

Le monde contre OpenAI. Beaucoup ont fini par critiquer la manière d'agir d'OpenAI sur les réseaux sociaux. Plusieurs messages sont apparus sur Reddit encourageant les utilisateurs à « Annuler ChatGPT » avec des milliers de votes positifs et aussi des milliers de commentaires dont le ton était indigné de la manière dont OpenAI et Sam Altman ont profité de cette circonstance. On a vu des mouvements de critiques dans le passé – Facebook, Netflix – mais il arrive généralement qu’après ces premiers instants, les entreprises finissent par se remettre des critiques et en ressortent même plus fortes pour une raison simple : les êtres humains ont une très mauvaise mémoire.

À Simseo | OpenAI a un problème : Anthropic réussit là où le plus d'argent est en jeu