Pourquoi l’IA bat-elle les humains au jeu de stratégie Diplomacy ?

Pourquoi l’IA bat-elle les humains au jeu de stratégie Diplomacy ?

Dans Diplomacy, un jeu de stratégie qui se déroule à la veille de la Première Guerre mondiale, la réussite ne dépend pas de la chance mais de la capacité à négocier. Les joueurs, chacun représentant les forces armées d'une superpuissance européenne, passent une grande partie de leur temps à instaurer la confiance, à former des alliances et, finalement, à trahir leurs adversaires pour gagner le plus de territoire possible. « Le négociateur le plus habile remportera la victoire », a déclaré le créateur du jeu, la société Avalon Hill.

Ainsi, en 2022, lorsqu’un modèle d’IA a participé à une ligue de diplomatie en ligne et a dominé les joueurs humains dans 40 jeux, cela a semblé suggérer une sorte de maîtrise informatique sur la communication humaine.

Un regard plus approfondi sur les joueurs IA

Mais les apparences peuvent être trompeuses. Une nouvelle étude menée par des chercheurs de l'Institut des sciences de l'information de l'USC Viterbi, de l'Université du Maryland, de l'Université de Princeton et de l'Université de Sydney met en lumière la manière dont CICERO, le modèle d'IA développé par Meta, remporte ses victoires en diplomatie. Selon l'étude, ces victoires sont davantage dues aux prouesses stratégiques du modèle qu'à ses compétences en communication. Ces dernières restent en deçà de celles des joueurs humains.

Les résultats, présentés lors de la 62e réunion annuelle de l'Association for Computational Linguistics (ACL), pourraient conduire à une meilleure compréhension de la capacité de l'IA à communiquer et à élaborer des stratégies avec les humains, non seulement pendant les soirées de jeux de société, mais aussi pour les problèmes quotidiens.

« Nous étudions cette question parce que nous nous intéressons à la modélisation de la communication entre l'IA et l'humain », a déclaré Jonathan May, professeur associé de recherche à l'USC Viterbi School of Engineering et co-auteur de l'étude. « Une question importante et difficile est la suivante : dans quelle mesure le modèle d'IA est-il trompeur ? »

Décoder la communication

Les chercheurs ont mis au point une série de jeux de diplomatie, opposant CICERO à des joueurs humains. Au cours de 24 parties et 200 heures de compétition, ils ont recueilli plus de 27 000 messages. Contrairement aux études précédentes, leur attention s'est déplacée du taux de victoire impressionnant de CICERO vers un examen plus nuancé de son aptitude à utiliser les compétences de communication trompeuses et persuasives qui sont au cœur de la diplomatie.

Pour tester les niveaux de tromperie, l’équipe a développé un système permettant d’analyser les conversations dans le jeu à l’aide d’une technique appelée Abstract Meaning Representation (AMR), qui distille des messages complexes en langage naturel en données structurées et lisibles par machine.

L'AMR a permis aux chercheurs de comparer ce que les joueurs disaient qu'ils feraient dans leurs messages avec ce qu'ils faisaient réellement dans le jeu. Par exemple, si l'Allemagne disait à l'Angleterre : « Je soutiendrai votre invasion de la Suède au prochain tour », les chercheurs vérifiaient si le joueur apportait réellement ce soutien ou s'il faisait plutôt un geste contradictoire.

Cette méthode a permis aux chercheurs de quantifier les cas de tromperie et de persuasion, ainsi que de comparer les capacités de communication de CICERO avec celles des humains.

La stratégie l'emporte sur la parole

Malgré le fait que CICERO ait remporté 20 des 24 parties, l'étude a révélé que ses messages manquaient souvent de cohérence et ne reflétaient pas ses intentions réelles en termes de gameplay. « Si vous faites attention à ce qu'il dit pendant le jeu, c'est de la foutaise », a déclaré May. « Ce qu'il dit est ce qu'un joueur de Diplomacy a déjà dit auparavant. Cela ne reflète pas ce qu'il fait réellement. »

Les chercheurs ont également mené des expériences au cours desquelles ils ont limité la communication de CICERO de différentes manières. Dans certains jeux, le modèle ne pouvait pas envoyer de messages du tout, tandis que dans d'autres, il ne pouvait envoyer que des informations stratégiques très basiques. La modification de ces entrées n'a pas eu d'impact significatif sur son score élevé, ce qui suggère que les compétences de négociation jouent un rôle mineur dans le talent Diplomatie du modèle.

Les humains, cependant, sont les plus enclins à mentir. L’étude a révélé que CICERO est moins trompeur et moins persuasif que les humains. Il est également moins susceptible d’être persuadé. Les joueurs humains se sont révélés plus intentionnellement trompeurs et plus efficaces pour persuader les autres humains que CICERO. Curieusement, les humains ont également menti davantage à CICERO une fois qu’ils l’ont reconnu comme une IA.

« Ce qui fait vraiment la force de CICERO, c'est qu'il a vu beaucoup de Diplomacy jouer et sait comment agir », a déclaré May. « Il a du mal à être vraiment convaincant ou hypocrite, et il ne réagit pas de manière significative à ce que disent les autres joueurs. »

Aider les humains

Bien qu’il ne s’agisse que d’un jeu, comprendre la nature de la tromperie de l’IA dans Diplomacy pourrait ouvrir la voie à de nouvelles recherches sur des formes plus conséquentes de communication conflictuelle. May suggère que ces informations pourraient aider à développer des applications pour lutter contre les menaces générées par l’IA dans des scénarios réels, comme un assistant numérique qui aide les humains à identifier la désinformation et à déterminer à qui ou à quoi faire confiance en ligne.

« Il y a beaucoup de gens qui se comportent mal », a déclaré May. « Nous voulons nous protéger contre cela en fournissant une aide supplémentaire. »