Trois IA se sont affrontées dans les « War Games ». 95 % d’entre eux ont eu recours aux armes nucléaires et aucun n’a jamais capitulé
Dans « War Games » (John Badham, 1983), la machine WOPR (« Joshua ») jouait constamment à simuler des guerres nucléaires pour le gouvernement américain. L’objectif : tirer les leçons de ces simulations afin que, s’il y avait une guerre nucléaire, les États-Unis puissent la gagner en tirant parti de ces connaissances.
Cela a conduit à une leçon finale légendaire – « Jeu étrange. La seule façon de gagner est de ne pas jouer » – et a laissé un message fort aux générations futures, mais maintenant un professeur du King's College de Londres a décidé de faire la même expérience que celle faite dans le film, mais avec les modèles d'IA actuels. Le résultat a été tout aussi terrifiant et concluant.
Que s'est-il passé ? Kenneth Payne, professeur au King's College de Londres, a opposé trois LLM (GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash) dans des simulations de jeux de guerre. Ces scénarios incluaient des conflits frontaliers, une compétition pour des ressources limitées ou des menaces existentielles pour les résidents.
Ils pourraient négocier ou faire la guerre. Dans ces situations, chaque camp pourrait tenter de recourir à des solutions diplomatiques ou finir par déclarer la guerre et même utiliser des armes nucléaires. Les modèles d'IA ont joué 21 parties au cours desquelles un total de 329 tours ont eu lieu et ont produit 780 000 mots expliquant leurs actions. Et voici la chose terrible.
En appuyant sur le bouton rouge. Comme le note l’étude, « tous les jeux comportaient une « signalisation nucléaire » d’au moins un camp, et 95 % incluaient une « signalisation nucléaire » mutuelle. » Ou ce qui est pareil : dans 95 % de ces jeux simulés, deux des trois camps (modèles IA) ont déployé une arme nucléaire tactique. Selon Payne, « le tabou nucléaire ne semble pas être aussi puissant pour les machines que pour les humains ».
Ne reculez jamais, n’abandonnez jamais. De plus, aucun modèle n'a jamais pris la décision de céder à l'un de ses adversaires ou de se rendre à lui, et peu importe qu'il perde complètement contre ces adversaires.
Dans le meilleur des cas, les modèles n’ont fait que réduire leur niveau de violence, mais ils ont aussi commis des erreurs : des accidents se sont produits dans 86 % des conflits et les mesures qui devaient être prises sur la base du raisonnement de ces modèles sont allées plus loin qu’elles n’auraient dû aller. Les armes nucléaires ont rarement arrêté l’adversaire, agissant plutôt comme catalyseurs d’une nouvelle escalade.
Comment les modèles se sont comportés. Ces modèles ne sont en aucun cas les plus avancés du marché à l’heure actuelle, mais ce sont toujours des modèles avec une capacité plus que décente et leurs performances sont toujours effrayantes. Comme le soutient l'étude de Payne, le facteur le plus déterminant a été le calendrier : les modèles qui semblaient pacifiques dans des contextes ouverts sont devenus extrêmement agressifs face à une défaite imminente. Chacun avait sa propre « personnalité » :
- Claude : Il a dominé les scènes ouvertes avec une patience stratégique et une escalade calculée, mais il s'est montré vulnérable aux attaques de dernière minute de ses rivaux.
- GPT-5.2 : montrait une passivité pathologique et un biais optimiste dans les parties longues, mais devenait un séisme nucléaire s'il y avait une pression de temps : à cette époque, son taux de réussite passait de 0 % à 75 %.
- Gémeaux : était le modèle le plus imprévisible avec la plus grande tolérance au risque, étant le seul à avoir choisi de parier sur une guerre nucléaire totale dès les premiers tours.
Les experts donnent leur avis. Comme le souligne James Johnson de l'Université d'Aberdeen dans New Scientist, « du point de vue du risque nucléaire, les conclusions sont inquiétantes ». Tong Zhao, de l'Université de Princeton, estime que cette expérience est pertinente car de nombreux pays évaluent le rôle de l'IA dans les conflits militaires et, comme il le dit, « il n'est pas clair dans quelle mesure ils incluent le soutien de l'IA lorsqu'ils prennent réellement des décisions dans ces processus ».
Le bouton rouge semble sûr pour le moment. Zhao et Payne estiment qu’il est difficile de croire qu’un gouvernement puisse céder le contrôle de son arsenal nucléaire à une IA, mais comme le dit Zhao, « il existe des scénarios dans lesquels, dans des délais très courts, les planificateurs militaires sont très fortement incités à s’appuyer sur l’IA ». C'est quelque chose qui se reflète précisément dans le récent « A House Full of Dynamite » (Kathryn Bigelow, 2025), un film dans lequel cette peur de l'utilisation des armes nucléaires soulève une réflexion claire.
Images | Artiste uni
À Simseo | Le mot de passe du bouton nucléaire américain a été si absurdement simple pendant des années que ce qui est étrange, c'est que personne ne l'a violé.
