Le gouvernement américain a arrêté d'utiliser Claude parce qu'il s'agissait d'une « IA éveillée ». Juste après avoir bombardé l'Iran avec Claude, selon le WSJ

Le gouvernement américain a arrêté d'utiliser Claude parce qu'il s'agissait d'une « IA éveillée ». Juste après avoir bombardé l'Iran avec Claude, selon le WSJ

Ce 28 février, Israël et les États-Unis ont bombardé l'Iran. C'est quelque chose qui se produit parallèlement à une « guerre » qui se déroule sur le sol américain : celle dont l'IA doit être utilisée par l'arme militaire du pays. Car oui, l’IA est devenue un outil essentiel pour les opérations de renseignement, au point que certains rapports suggèrent que Claude a joué un rôle clé dans les attentats massifs de samedi.

Mais il y a un problème. Quelques heures avant l’attaque, Trump avait ordonné que Claude et tout outil d’intelligence artificielle anthropique ne soient pas utilisés dans des opérations militaires. Et le fait que le Pentagone ait désobéi ne répond qu’à une chose : Claude est trop profondément ancré dans les systèmes militaires américains.

Le désordre anthropique. Ce sujet est complexe, alors allons-y avec un peu de contexte avant d'entrer dans le vif du sujet. Lorsque les États-Unis cherchaient une IA pour soutenir leurs systèmes de défense et s’intégrer à Palantir, Anthropic a proposé la sienne pour la modique somme d’un dollar. Cela valait un contrat de 200 millions de dollars, et Anthropic et le Pentagone se sont mis au travail pour intégrer les modèles de l'entreprise dans toutes sortes de systèmes.

Le soutien de Claude est si important pour le Pentagone en termes d'analyse de données à grande échelle qu'on estime qu'il a été utilisé pour la capture de Nicolas Maduro il y a quelques mois. Le « problème » est qu’Anthropic a programmé son IA pour ne pas violer deux lignes rouges :

  • Il ne sera pas utilisé pour espionner massivement les citoyens américains.
  • Il ne sera pas utilisé pour le développement ou le contrôle d’armes autonomes et de systèmes d’attaque.

« L'IA réveillée. » Le ministère de la Guerre et Donald Trump n'étaient pas d'accord avec cela et ont lancé la semaine dernière un ultimatum : soit Anthropic abandonnait son IA « déchaînée », soit il y aurait des conséquences. Quelles conséquences ? Jouez la carte de la Defense Production Act de 1950 pour saisir avec force la création d’Anthropic. L'entreprise avait jusqu'à 17h01. vendredi dernier pour répondre, et c'est ce qu'il a fait.

Dans une longue déclaration signée par Dario Amodei, PDG d'Anthropic, il est affirmé que l'entreprise était du côté des intérêts de défense du pays, mais pas à n'importe quel prix. Leur moralité était très claire et ils n’allaient pas céder au chantage des États-Unis qui, quelques heures auparavant, menaçaient de « faire d’eux un Huawei » en mettant Anthropic sur une liste noire. La réponse d’Amodei a rendu Trump et Pete Hegseth furieux. Le secrétaire à la Défense a qualifié Claude de « AI Woke », une ligne que Trump lui-même a suivie.

Sur son réseau social Truth Social, Trump a noté qu’Anthropic est une « société d’intelligence artificielle radicale de gauche dirigée par des gens qui n’ont aucune idée de la façon dont fonctionne le monde réel ». Pour le moins frappant, et avec une autre réponse : les États-Unis ont mis fin à leur collaboration avec Anthropic et ont interdit l’utilisation de leur IA. Le problème c'est que c'est… faux.

« J'ordonne à TOUTES les agences fédérales américaines de CESSER IMMÉDIATEMENT toute utilisation de la technologie d'Anthropic. Nous n'en avons pas besoin, nous n'en voulons pas, et nous ne ferons plus affaire avec elles ! – Donald Trump

Un soldat peut et doit désobéir à un ordre illégal. Le problème auquel Anthropic est confronté est qu’une IA ne

Claude pour attaquer l'Iran. Comme le Wall Street Journal l’a rapidement rapporté, la frappe aérienne contre l’Iran a été menée avec l’aide de ces mêmes outils de la gauche radicale. Les médias ont noté que des commandements du monde entier, y compris le Commandement central des États-Unis au Moyen-Orient, utilisaient les outils de Claude pour évaluer la situation, identifier des cibles et simuler des scénarios de bataille.

Dépendance. Et cela ne fait que décrire un scénario dans lequel le Pentagone aura beaucoup de mal à supprimer ces outils anthropiques de son système. Cela s’est produit au Venezuela et il semble que cela se soit reproduit en Iran. Claude est trop à l'intérieur des systèmes du Pentagone, entretenant une relation quasi symbiotique avec le logiciel Palantir, et rompre cela du jour au lendemain semble compliqué.

On estime qu'il faudra six mois pour éliminer la trace de Claude du logiciel du Pentagone, mais malgré l'interdiction d'utilisation et son inscription sur la liste noire par Hegseth, une autre décision semble prévaloir : si nous l'avons déjà, nous l'utiliserons jusqu'à ce que nous trouvions un successeur.

Anthropic et OpenAI ont développé l'IA. Le Pentagone américain vous montre à qui il appartient réellement

OpenAI s'en prend aux miettes (d'un million de dollars). Et il ne leur a pas fallu une demi-seconde pour trouver ce nouveau fournisseur d’IA. OpenAI -ChatGPT- a publié une déclaration notant que « les États-Unis ont besoin de modèles d'IA pour soutenir leur mission, en particulier face aux menaces croissantes d'adversaires potentiels qui intègrent de plus en plus de technologies d'intelligence artificielle dans leurs systèmes ». Il est intéressant de noter qu’ils ont les mêmes lignes rouges qu’Anthropic a imposées (pas d’utilisation d’une surveillance nationale de masse, pas de systèmes d’armes autonomes directs, pas d’IA prenant automatiquement des décisions à haut risque).

Mais il y a une différence : si Anthropic a refusé de donner les pleins pouvoirs au Pentagone, OpenAI souligne que, malgré le maintien des mêmes principes moraux, l’utilisation de son IA est liée à l’usage légal que souhaite en faire le ministère de la Défense. Ceci est ambigu car si une certaine utilisation est considérée comme légale, elle n’entre pas en conflit avec cette « moralité ». Nous verrons s’il s’agit d’un simple échange de puces résultant de la colère parce que quelqu’un s’est opposé à un ordre gouvernemental ou si le passage d’Anthropic à OpenAI se traduit par ce dont les États-Unis ont besoin pour leur sécurité.

À Simseo | La guerre entre Anthropic et le Pentagone laisse présager quelque chose de terrifiant : un nouveau « Moment Oppenheimer »