Anthropic et OpenAI ont développé l'IA. Le Pentagone américain vous montre à qui il appartient réellement
Le Pentagone a largué la bombe il y a quelques heures. Anthropic a jusqu'à ce vendredi à 17h01. d’accepter que ses modèles d’IA soient utilisés pour tout ce que le Pentagone juge approprié. C’est quelque chose qui bouleverse le débat sur l’utilisation éthique de l’IA, mais plus important encore, cela met sur la table une intention très claire de la part des États-Unis : s’ils considèrent que toutes les ressources doivent être utilisées en matière de défense nationale, toutes les ressources appartiennent à l’État.
Et c’est là qu’intervient l’intelligence artificielle des entreprises privées.
En bref. Dario Amodei est le PDG d'Anthropic. Vous connaissez peut-être mieux le nom de Claude, l'un de ses modèles. Ceux-ci sont très polyvalents, mais ils ont une ligne rouge très claire : ils ne peuvent pas être utilisés pour une surveillance de masse des citoyens américains (attention à la nuance). Ni pour le développement d’armes ou l’utilisation d’armes autonomes entièrement contrôlées par l’IA. Et c’est quelque chose qui entre en conflit avec ce que souhaite le Pentagone : utiliser les modèles anthropiques sans restrictions.
Pourquoi Anthropic, me demanderez-vous ? Et bien parce que cette entreprise a proposé son outil au gouvernement pour le prix symbolique d'un dollar, ce qui lui a valu un contrat de 200 000 000 de dollars. Le déménagement ne s'est pas mal passé, et petit à petit leurs modèles ont été intégrés à ceux de Palantir. Aujourd’hui, les États-Unis veulent disposer d’une IA « déchaînée », mais comme l’explique mon collègue Javier Lacort, les lois et l’éthique des forces armées américaines reposent sur le fait qu’un soldat peut et doit désobéir à un ordre manifestement illégal.
Une IA peut faire tout ce que vous voulez.
Un levier de 1950. Un contrat de 200 millions de dollars, c’est juteux, mais vu les absurdités qui sont continuellement investies dans l’IA, c’est de l’argent de poche. Anthropic aurait la tâche aussi simple que de refuser et d’ouvrir la voie à quelqu’un d’autre pour prendre sa place au Pentagone, n’est-ce pas ? Eh bien… ce n'est pas si simple. Et ce n’est pas pour deux raisons.
La première est qu’il est déjà fortement intégré à tous les systèmes, processus et services que le ministère de la Défense utilise au quotidien. C'est un navire trop gros pour qu'il puisse changer de cap. Il « en sait » trop sur les intérieurs de ces systèmes qui doivent être hautement secrets. Mais le plus important est que les États-Unis disposent d’un levier pour prendre en main ce qu’ils veulent. La seule chose qu’il faut faire valoir, c’est que cela est dû à un besoin de sécurité nationale.
En 1950, pendant la guerre de Corée, est née la Defense Production Act, une loi qui confère au président le pouvoir de sécuriser les approvisionnements nécessaires à la défense nationale. Cela donne par exemple au gouvernement le pouvoir d’exiger des entreprises qu’elles accordent la priorité aux contrats avec l’État pour l’attribution de matériaux, de services et d’installations. Permettre également à l’aide d’accroître la capacité de production et, à terme, de mettre au travail les plus grandes entreprises du pays en fonction des besoins.
Trop puissant pour être privé. Ce document a été élargi et élargi au fil du temps, puisque les besoins de 1950 ne sont pas les mêmes que ceux des décennies suivantes, et en 2023 le décret 14 110 a été signé. C’est celui qui oblige les propriétaires des modèles d’IA les plus puissants à informer le gouvernement lorsqu’ils entraînent des systèmes susceptibles de présenter un risque pour la sécurité nationale, l’économie ou la santé publique. Après lui, d’autres projets ont été signés, élargissant les exigences en matière d’IA, mais la vérité est que le Pentagone n’a pas besoin de publier quoi que ce soit de nouveau pour faire pression sur Anthropic.
En vertu du titre I (ordonnant que certains produits ou services soient fournis au gouvernement), le Pentagone pourrait reprendre l'IA d'Anthropic pour réaliser ses conceptions. Le soutien est ce que nous avons déjà mentionné : cette « défense nationale ». Et, dans la pratique, il est défini que si l’entreprise ne veut pas que son IA fasse certaines choses à cause de ce genre de code moral, si elle devient la propriété du Pentagone, la barrière éthique peut être éliminée.

Sanction disciplinaire pour le « IA réveillé ». Et maintenant, la grande question. Anthropic peut-il dire quelque chose comme « écoutez, vous gardez les 200 millions et chacun pour soi » ? Eh bien non. Ou pas d'une manière aussi simple. J’ai déjà dit que Claude est trop présent dans les systèmes du Pentagone (au point qu’il a été utilisé dans l’opération visant à capturer Nicolás Maduro) et qu’il « en sait » trop. Elle est très intégrée dans les systèmes classifiés du Pentagone, et comme on peut le deviner, ils n'allaient pas la laisser partir aussi facilement.
Et c’est là qu’intervient la figure de Pete Hegseth. Il est le secrétaire à la Défense et il a décrit la norme morale d’Anthropic comme celle d’une « IA éveillée ». Oui… Parce que Google, OpenAI et xAI permettent au Gouvernement d’utiliser leurs modèles dans n’importe quel scénario « légal » (pour le Gouvernement, bien sûr), mais pas Anthropic, et en plus du levier du Defense Production Act, les États-Unis peuvent punir durement l’entreprise.
S'ils ne « cèdent » pas à leurs demandes, ils pourraient identifier Anthropic comme une entreprise mettant en danger la chaîne d'approvisionnement du pays. Ce serait comme le veto de Huawei il y a quelques années, mais contre une entreprise nationale. En pratique, les entreprises américaines ne pourraient pas travailler avec Anthropic. Autrement dit, le pays dispose de quelques bons « arguments » pour qu’Anthropic relève cette barre morale.

Apprentissage. Ce ne sera pas si long avant 17h01. le vendredi 27 février, on saura si Anthropic accepte par crochet ou par escroc les « demandes » du Pentagone. Ce qui est clair, c'est que c'est une leçon. Pas tant pour les entreprises américaines qui, en fin de compte, opèrent sous l’égide du Defence Production Act, mais pour celles du reste du monde. Plus précisément, les européens. Et je pense à la course à l'espace.
L’Europe, comme la Chine, la Russie et les États-Unis eux-mêmes, s’est lancée dans la nouvelle course à l’espace. Ils avancent à un rythme différent parce que, jusqu’à il n’y a pas si longtemps, les États-Unis étaient leur partenaire et leur allié qui serait toujours là. Les tarifs douaniers et la guerre en Ukraine, entre autres, ont brisé cette confiance et l’Europe a réalisé qu’elle devait se ressaisir sur de nombreux fronts.
Et l’un d’eux est à qui vous faites confiance. Par exemple, SpaceX est devenu un partenaire dans les communications par satellite et les expéditions spatiales, mais SpaceX n’est plus seulement une société de fusées : c’est une société qui possède xAI. Et, comme je l’ai mentionné, xAI a des liens avec le département américain de la Défense. Mais SpaceX, c'est aussi X -Twitter-, une formidable base de données de citoyens européens. Et il y a l’autre lecture : les pays étrangers ne peuvent pas dépendre des systèmes critiques de fournisseurs qui opèrent sous l’égide américaine… et du Defense Production Act.
À Simseo | « Ce sont de brillants chercheurs sous le contrôle d'un gouvernement autoritaire. » Le PDG d'Anthropic a parlé de DeepSeek
