Les États-Unis ont décidé de se tirer une balle dans le pied et de détruire l’une des meilleures sociétés d’IA du pays.
Dario Amodei, PDG d'Anthropic, a publié il y a quelques heures une déclaration dans laquelle il annonçait quelque chose d'inhabituel : le ministère de la Défense (DoD) a confirmé que « nous avons été désignés comme un risque pour la chaîne d'approvisionnement pour la sécurité nationale » des États-Unis. Cette agence met ainsi à exécution la menace qu'elle représentait il y a quelques jours et transforme automatiquement Anthropic, l'une des meilleures sociétés d'IA du pays (sinon la meilleure), en une société paria. Quelles implications cela a-t-il ? Beaucoup et tous énormes.
J'oppose mon veto à Anthropic. Cette désignation interdit à Anthropic de faire des affaires ou de développer des projets pour l'armée américaine. C'est déjà grave, mais il n'y a pas que le Pentagone, par exemple, qui ne le fera pas : il est également interdit à toute entreprise qui travaille avec le Pentagone d'utiliser les services d'IA d'Anthropic pour tout projet gouvernemental. Nous sommes confrontés à une décision dont les effets collatéraux pourraient être terribles pour Anthropic. La perte de revenus pourrait être massive, et si d'autres agences fédérales suivent l'exemple du Pentagone, Anthropic pourrait avoir du mal à défendre sa viabilité face à ses concurrents. Cette désignation n'est pas immédiate et il y aura une période de transition de six mois pour que le DoD migre vers d'autres fournisseurs (tels qu'OpenAI).
Il n'avait jamais repris une entreprise nationale. L'interdiction d'Anthropic est absolument extraordinaire, et cette désignation comme « risque pour la chaîne d'approvisionnement » était une mesure historiquement réservée à des adversaires étrangers comme Huawei. En appliquant ce label à une entreprise américaine, le DoD rompt ses liens commerciaux et marque l'entreprise d'un stigmate, une sorte de « lettre écarlate » qui pourrait faire fuir les investisseurs et partenaires mondiaux.
Choc éthique. Le cœur du conflit n’est pas technique mais moral. Anthropic est née comme une spin-off d'OpenAI dans le but d'éviter les risques existentiels dans le développement de modèles d'IA, et l'entreprise s'est toujours positionnée comme un grand défenseur de l'alignement avec les valeurs humaines. Son PDG, Dario Amodei, a insisté sur le fait que son IA ne pouvait pas être utilisée pour la surveillance de masse ou pour le développement d'armes mortelles autonomes, mais cela s'est heurté de plein fouet au gouvernement et aux institutions militaires américaines, qui voulaient un accès pratiquement total et sans restriction, à l'exception de celles imposées par la Constitution et les lois américaines.
Aux tribunaux. Amodei a expliqué dans sa déclaration qu'elle contesterait la décision devant les tribunaux. Son argument, explique-t-il, est que la loi 10 USC 3252 est un outil de protection et non de punition. La défense devra s’attacher à démontrer que le ministère de la Défense n’a pas utilisé les moyens les moins restrictifs pour assurer la sécurité. S’ils réussissent, ils pourraient invalider la désignation, même si le préjudice à la réputation a déjà été causé.
Le dilemme de la souveraineté. Une entreprise privée peut-elle être au-dessus du gouvernement ? Le Pentagone affirme qu’aucun fournisseur ne peut échapper à la chaîne de commandement, et une chose est sûre : le fait qu’une IA ait des clauses d’utilisation qui limitent les opérations militaires revient à céder la souveraineté nationale à un algorithme privé et aux conditions de service d’un conseil d’administration et d’un PDG qui n’ont pas été démocratiquement élus.
La menace d’un interventionnisme extrême. Cette mesure inhabituelle pourrait finir par créer un précédent. Si le gouvernement punit les entreprises qui posent des questions inconfortables ou imposent des limites à l’utilisation de leur technologie, l’innovation en matière d’IA pourrait changer sa philosophie. Les entreprises qui veulent survivre devraient le faire sans remettre en question les ordres par pure peur de la faillite et de la faillite.
Période de transition. Il existe cependant un délai de six mois accordé pour la transition, ce qui semble indiquer clairement que le Pentagone dépend toujours de la technologie Anthropic pour ses opérations actuelles, comme le démontrent l'enlèvement de Nicolas Maduro ou les analyses actuelles des services de renseignement sur le conflit en Iran. Il reste à voir comment les événements évolueront, mais les perspectives pour Anthropic sont certainement inquiétantes. Et pour le reste des entreprises aussi, si tant est que la justice donne raison au ministère de la Défense.
Images | Anthropique | Simseo avec Freepik
À Simseo | Anthropic est devenu l'Apple de notre époque et OpenAI notre Microsoft : une histoire d'amour et de haine
