Les chercheurs de DeepMind découvrent que les LLM peuvent servir de médiateurs efficaces
Une équipe de chercheurs en IA du groupe DeepMind London de Google a découvert que certains grands modèles linguistiques (LLM) peuvent servir de médiateurs efficaces entre des groupes de personnes ayant des points de vue divergents sur un sujet donné. L'ouvrage est publié dans la revue Science.
Au cours des dernières décennies, les divisions politiques sont devenues monnaie courante dans de nombreux pays ; la plupart ont été qualifiées de libérales ou de conservatrices. L’avènement d’Internet a servi de moteur, permettant aux citoyens des deux bords de promouvoir leurs opinions auprès d’un large public, générant colère et frustration. Malheureusement, aucun outil n’a fait surface pour apaiser la tension d’un tel climat politique. Dans ce nouvel effort, l’équipe de DeepMind suggère que des outils d’IA tels que les LLM pourraient combler cette lacune.
Pour savoir si les LLM pouvaient servir de médiateurs efficaces, les chercheurs ont formé des LLM appelés Habermas Machines (HM) pour servir de médiateurs de caucus. Dans le cadre de leur formation, les LLM ont appris à identifier les domaines de chevauchement entre les points de vue des personnes appartenant à des groupes opposés, mais à ne pas essayer de changer les opinions de qui que ce soit.
L'équipe de recherche a utilisé une plateforme de crowdsourcing pour tester la capacité de médiation de leur LLM. Les volontaires ont été invités à interagir avec un HM, qui a ensuite tenté de connaître les points de vue des volontaires sur certains sujets politiques. Le HM a ensuite produit un document résumant les points de vue des volontaires, dans lequel il était invité à accorder plus de poids aux domaines de chevauchement entre les deux groupes.
Le document a ensuite été remis à tous les volontaires à qui il a été demandé de formuler une critique, après quoi le HM a modifié le document pour prendre en compte les suggestions. Enfin, les volontaires ont été divisés en groupes de six personnes et ont servi à tour de rôle de médiateurs pour les critiques des déclarations comparées aux déclarations présentées par le HM.
Les chercheurs ont constaté que les volontaires ont évalué les déclarations faites par le HM comme étant de meilleure qualité que les déclarations des humains dans 56 % des cas. Après avoir permis aux volontaires de délibérer, les chercheurs ont constaté que les groupes étaient moins divisés sur leurs problèmes après avoir lu le matériel fourni par les HM que par la lecture du document fourni par le médiateur humain.