La guerre entre Anthropic et le Pentagone laisse présager quelque chose de terrifiant : un nouveau « Moment Oppenheimer »
Anthropic a refusé de céder aux pressions du Pentagone. Son co-fondateur et PDG, Dario Amodei, vient de publier une déclaration dans laquelle il indique clairement qu'il ne veut pas enfreindre ses principes éthiques. Pas d’espionnage massif avec l’IA, pas de développement d’armes autonomes létales avec ses modèles. Et cela nous rappelle un cas terrible : celui de la bombe atomique.
Du héros au méchant. J. Robert Oppenheimer est passé du statut de « père de la bombe atomique » et de héros national à celui de paria. Son péché n’était pas une trahison, mais sa clarté morale. Après avoir été témoin de l’horreur d’Hiroshima et de Nagasaki, Oppenheimer a désespérément tenté d’arrêter l’escalade atomique et le développement de la bombe à hydrogène.
Soit vous êtes avec nous, soit vous êtes contre nous. Les États-Unis, qui l’avaient loué dans le passé, ont profité de ses anciennes affiliations politiques et l’ont dépouillé de tous ses privilèges et de son influence. Cela démontre comment le gouvernement américain a simplement décidé que la connaissance scientifique était la propriété de l’État et que tout chercheur qui tenterait de proposer des limites éthiques à ses propres projets serait traité comme un ennemi du pays.
L’histoire menace de se répéter ces jours-ci.
D’Oppenheimer à Anthropic. Il le fait avec un protagoniste qui est toujours là – le gouvernement américain – et un autre qui est en train de changer : celui qui défend désormais l'éthique d'un projet scientifique et technologique n'est pas Oppenheimer, mais Dario Amodei, PDG d'Anthropic.
Claude est de plus en plus vital au sein du gouvernement américain. Votre entreprise est aujourd’hui entre le marteau et l’enclume. Anthropic a réussi à faire de son modèle Claude la jolie fille du gouvernement américain. Les capacités de cette IA se sont avérées si remarquables qu’elle a apparemment été utilisée pour planifier l’arrestation de l’ancien président du Venezuela, Nicolás Maduro.
Lignes rouges. Mais pour que le Pentagone puisse utiliser Claude, Anthropic a imposé certaines lignes rouges. Cela ne sert à rien de surveiller massivement les citoyens américains, ni à développer des armes mortelles autonomes. Et le Pentagone a fini par ne pas aimer ces lignes rouges, alors il veut les éliminer et utiliser Claude à sa guise à condition, disent-ils, que la Constitution et les lois américaines soient respectées.
Le Pentagone veut une IA sans restriction. Cela a fini par créer une situation extrêmement tendue ces jours-ci. Le Pentagone a menacé de punir Anthropic s’il ne cédait pas à ses exigences, et ces menaces du ministère de la Défense n’ont pas été subtiles du tout. En fait, ils ont suggéré qu'ils pourraient qualifier Anthropic de société présentant « un risque pour la chaîne d'approvisionnement », une étiquette noire généralement réservée aux entreprises de pays rivaux comme la Chine ou la Russie.
Contradiction. Dario Amodei lui-même a expliqué dans un article sur le blog officiel de l'entreprise que ces deux menaces étaient exclusives : « Ces deux dernières menaces sont intrinsèquement contradictoires : l'une nous qualifie de risque pour la sécurité ; l'autre qualifie Claude d'essentiel à la sécurité nationale. »
L’IA peut-elle être nationalisée ? C'est une ironie inquiétante : le même gouvernement qui considère Claude comme un outil essentiel pour la sécurité nationale est prêt à qualifier ses créateurs de menace publique s'ils ne remettent pas les clés du royaume et de leur IA. Ce que veulent le ministère de la Défense et le Pentagone, c'est fondamentalement « nationaliser » la technologie d'IA développée par Anthropic et se l'approprier comme ils l'ont déjà fait avec la technologie qui a donné naissance à la bombe atomique. Nous savons comment cela s'est terminé.
Anthropic refuse de bouger. Le danger est énorme dans les deux domaines : la surveillance de masse, plutôt que de défendre la démocratie, peut la dynamiser de l’intérieur, et le scandale de la NSA en est un bon exemple. Mais ce qui est encore plus inquiétant est l’intention du Pentagone d’utiliser cette IA pour développer des armes autonomes mortelles. Amodei a insisté sur ce point, affirmant que « les modèles fondamentaux d'IA ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes. Nous ne fournirons pas sciemment un produit qui mettrait en danger les combattants et les civils américains ».
Amodei propose même au ministère de la Guerre et de la Défense d’aider à « la transition vers un autre fournisseur » de modèles d’IA, mais on ne sait pas encore quelle voie le gouvernement américain prendra.
Moment Oppenheimer. Si le Pentagone met enfin sa menace à exécution et interdit Anthropic, le message adressé à l’industrie sera effrayant. À l’ère de l’IA, il n’y a pas d’objecteurs de conscience : si une entreprise développe un avantage technologique et stratégique au niveau militaire, elle est à la merci de l’État. Il s’agit d’un nouveau et terrifiant « Moment Oppenheimer » qui conditionne l’avenir non seulement d’Anthropic, mais aussi du développement des modèles d’IA lui-même.
À Simseo | « Le monde est en danger » : le responsable de la sécurité d'Anthropic quitte l'entreprise pour écrire de la poésie
