Anthropic a des lignes rouges pour son IA. Le Pentagone vient d'exiger que vous les supprimiez tous

Anthropic a des lignes rouges pour son IA. Le Pentagone vient d'exiger que vous les supprimiez tous

Le Pentagone vient de donner à Anthropic jusqu'à ce vendredi à 17h01. d'accepter l'utilisation sans restriction de ses modèles d'IA pour tous types d'applications, y compris l'espionnage et les applications militaires. L’entreprise a jusqu’à présent refusé, mais l’administration Trump menace d’invoquer une règle vieille de 75 ans pour « s’approprier » la technologie d’IA d’Anthropic.

Lignes rouges. Le conflit trouve son origine dans les lignes rouges imposées par les normes éthiques d'Anthropic. L’entreprise, dirigée par Dario Amodei, refuse que ses modèles soient utilisés pour la surveillance de masse des citoyens américains – elle ne dit rien des autres – ou pour le développement et l’utilisation d’armes létales autonomes entièrement contrôlées par l’IA.

Le Pentagone veut utiliser l’IA (presque) sans limites. Ce type de garanties entre en conflit direct avec la position du Pentagone, qui exige de ses fournisseurs de technologies qu'ils autorisent l'utilisation de leurs solutions logicielles et matérielles à toute fin légale définie par l'armée, sans veto extérieur. Tant que la constitution et les lois américaines le permettent, une entreprise privée ne devrait pas pouvoir imposer de limites à l'utilisation de sa technologie, indique le gouvernement américain.

Tension après l'incident de Maduro. Les choses ont commencé à mal tourner lorsqu’on a appris que le modèle Claude avait été utilisé dans une opération des forces spéciales américaines en janvier pour capturer l’ancien président vénézuélien Nicolas Maduro. L'incident a mis à la loupe la dépendance de l'armée à l'égard de Claude : Anthropic est actuellement la seule société d'IA qui opère dans les systèmes classifiés du Pentagone, ce qui lui confère une position de pouvoir notable qui veut maintenant être brisée par le gouvernement américain.

Ça sent mauvais. La stratégie du Pentagone est inquiétante d'un point de vue juridique. Il existe trois principales possibilités d’action :

  1. Annulez le contrat Anthropic et commencez à travailler avec une autre (ou d'autres) sociétés d'IA prêtes à accepter leurs conditions. Hier, nous avons appris que xAI avait déjà signé un accord pour que le DoD puisse utiliser son modèle Grok dans des systèmes classifiés. Google semble également être une option avec laquelle ils travaillent.
  2. Identifiez Anthropic comme un risque pour votre chaîne d’approvisionnement. C’est très dangereux, car cela signifierait qu’un grand nombre d’entreprises aux États-Unis ne pourraient pas travailler avec Anthropic. Ce serait une sorte de veto comme celui que les États-Unis ont imposé à Huawei, mais appliqué à une entreprise nationale. L’impact pour Anthropic et ses investisseurs (dont Amazon et Google) serait catastrophique.
  3. Activez le titre 1 de la loi sur la production de défense de 1950, une loi spéciale théoriquement conçue pour contrôler l’économie pendant les guerres et les situations d’urgence. Il a par exemple été utilisé pendant la pandémie de COVID-19 pour stimuler la production de fournitures médicales et accélérer la production de vaccins. Il semble peu probable qu’ils puissent faire une chose pareille.

Comment tout ce désordre a commencé. L’administration Biden a promu des mesures et des limites éthiques pour restreindre l’application de l’IA, mais tout a changé avec le mandat de Donald Trump. En juin 2025, Anthropic a lancé Claude Gov, une série spécialisée de modèles d'IA spécialement conçus pour être utilisés par les agences nationales américaines en matière de sécurité, de défense et de renseignement.

IA avec applications militaires et de renseignement. Ces modèles ont été préparés pour fonctionner dans des environnements contenant des informations classifiées. Anthropic les a également proposés au prix symbolique de 1 dollar pour s'assurer que le gouvernement les préférerait à ceux des autres concurrents. Peu de temps après, le DoD a attribué à l'entreprise un contrat d'une valeur de 200 millions de dollars et depuis lors, l'entreprise s'intègre aux systèmes Palantir utilisés par les agences gouvernementales américaines.

Deux positions opposées. Anthropic se positionne donc en défenseur de certaines limites pour l’usage de ses modèles d’IA. Le ministère de la Défense (DoD) n'est pas d'accord, arguant que l'utilisation militaire de toute technologie ne devrait être conforme qu'à la Constitution ou aux lois américaines. L'entreprise affirme qu'elle cherche à soutenir la mission de sécurité nationale, mais uniquement dans la mesure où ses modèles peuvent le faire de manière fiable et responsable.

Le dilemme. Si le Pentagone met sa menace à exécution, cela créera un précédent où l’État pourra intervenir dans la propriété intellectuelle d’un éditeur de logiciels sous prétexte d’urgence nationale. Cela obligerait toutes les Big Tech à décider si elles sont prêtes à céder le contrôle total de leurs développements technologiques à l’armée… ou à risquer de se faire intervenir par une loi vieille de près de 80 ans.

Images | Ben Blanc | Anthropique

À Simseo | IBM vit depuis des décennies que personne ne peut tuer COBOL. Anthropic a d'autres projets