Traduire le Pentagone en justice

Traduire le Pentagone en justice

Le feuilleton entre Anthropic et le Pentagone a un nouveau chapitre (et maintenant ils s'en vont…). Après la lutte acharnée de ces dernières semaines, Anthropic s'est levée, ce qui a fini par amener les États-Unis à inscrire l'entreprise sur une liste noire. Anthropic n’était pas amusé.

Que s'est-il passé ? Anthropic a poursuivi le ministère américain de la Défense (ou de la Guerre), qualifiant la décision de les mettre sur liste noire de « sans précédent et illégale » et arguant qu'elle causerait un préjudice irréparable à l'entreprise. . S'adressant à Fortune, un porte-parole d'Anthropic a déclaré qu'ils restaient déterminés à protéger la sécurité nationale et souhaitaient trouver une solution, mais que « c'est une étape nécessaire pour protéger notre entreprise, nos clients et nos partenaires ». L'administration n'a pas commenté ce procès.

Beaucoup d’argent en jeu. En mettant Anthropic sur liste noire, le gouvernement empêche les entrepreneurs et fournisseurs de défense d’utiliser Claude dans leurs activités liées au Pentagone. De plus, Trump a ordonné à l’ensemble du gouvernement de cesser d’utiliser l’IA d’Anthropic. L'entreprise affirme que des contrats gouvernementaux sont déjà annulés et que d'autres contrats privés sont menacés. Le directeur commercial d'Anthropic, Paul Smith, a assuré qu'il y avait un client qui avait déjà remplacé Claude par une autre IA générative. Ce contrat à lui seul leur fera perdre au moins 100 millions de dollars.

Des doutes sur la légalité. Anthropic affirme que la décision du gouvernement n'est pas légale. Est-ce qu'ils ont raison ? Selon les experts juridiques de Lawfare, l’étiquette de « risque lié à la chaîne d’approvisionnement » ne résistera pas à un examen judiciaire. La raison principale est que cette désignation est destinée aux adversaires étrangers, comme ce fut le cas avec Huawei. La définition de la loi est « le risque qu'un adversaire puisse saboter ou renverser un système couvert », elle ne dit rien sur l'utilisation de cette mesure comme punition contre une entreprise nationale pour un désaccord. Selon Lawfare, les déclarations de Trump et du secrétaire à la Défense « présentent cette action comme une punition idéologique d'un ennemi politique ».

Le désaccord. L’origine de cette escalade réside dans les lignes rouges fixées par Anthropic. Fondamentalement, l’entreprise a refusé que son modèle soit utilisé pour la surveillance massive des citoyens et surtout pour le développement d’armes meurtrières sans surveillance humaine. L’inquiétude est justifiée : un militaire peut refuser d’exécuter un ordre illégal, une IA ne le peut pas.

Le Pentagone n’aime pas les lignes rouges (celles des autres, bien sûr) et exige de pouvoir utiliser sa technologie sans limites. Selon les mots de Trump dans un article de Truth Social : « Nous déciderons du sort de notre pays, PAS d'une société d'IA radicale de gauche incontrôlable dirigée par des gens qui n'ont aucune idée de ce qu'est le monde réel. »

Pendant ce temps, OpenAI… Peu de temps après qu'Anthropic ait été inscrit sur cette liste noire, le gouvernement a trouvé un nouveau candidat pour mener à bien ses projets : OpenAI. Selon l'entreprise de Sam Altman, son développement présente davantage de garanties et . S'ensuit une crise d'image pour ChatGPT, avec des démissions massives et des désinstallations d'utilisateurs passés à Claude. Mais ne nous y trompons pas : même si Anthropic a gagné la bataille de l'opinion publique, si les États-Unis suivent le rythme, l'avenir s'annonce plutôt sombre pour le camp d'Amodei.

À Simseo | Anthropic est devenu l'Apple de notre époque et OpenAI notre Microsoft : une histoire d'amour et de haine

Images | Anthropique (édité)