Comment pouvons-nous tirer le meilleur parti possible des grands modèles linguistiques pour une société plus intelligente et plus inclusive ?
Les grands modèles de langage (LLM) se sont développés rapidement ces dernières années et font désormais partie intégrante de notre vie quotidienne grâce à des applications comme ChatGPT. Un article récemment publié dans Nature Comportement humain explique les opportunités et les risques qui découlent de l’utilisation des LLM pour notre capacité à délibérer collectivement, à prendre des décisions et à résoudre des problèmes.
Dirigée par des chercheurs de la Copenhagen Business School et de l'Institut Max Planck pour le développement humain de Berlin, l'équipe interdisciplinaire de 28 scientifiques fournit des recommandations aux chercheurs et aux décideurs politiques pour garantir que les LLM soient développés pour compléter plutôt que pour nuire à l'intelligence collective humaine.
Que faites-vous si vous ne connaissez pas le terme LLM ? Vous le recherchez probablement rapidement sur Google ou vous le demandez à votre équipe. Nous utilisons les connaissances des groupes, connues sous le nom d'intelligence collective, comme une évidence dans la vie de tous les jours.
En combinant les compétences et les connaissances individuelles, notre intelligence collective peut produire des résultats qui dépassent les capacités de n’importe quel individu isolé, même celles des experts. Cette intelligence collective est à l’origine du succès de toutes sortes de groupes, des petites équipes sur le lieu de travail aux communautés en ligne massives comme Wikipédia et même aux sociétés en général.
Les LLM sont des systèmes d’intelligence artificielle (IA) qui analysent et génèrent du texte à l’aide de grands ensembles de données et de techniques d’apprentissage profond. Le nouvel article explique comment les LLM peuvent améliorer l’intelligence collective et discute de leur impact potentiel sur les équipes et la société.
« Les grands modèles linguistiques façonnent de plus en plus le paysage de l’information et de la prise de décision. Il est donc essentiel de trouver un équilibre entre l’exploitation de leur potentiel et la protection contre les risques. Notre article détaille les moyens par lesquels l’intelligence collective humaine peut être améliorée par les LLM, ainsi que les divers préjudices qui sont également possibles », explique Ralph Hertwig, co-auteur de l’article et directeur de l’Institut Max Planck pour le développement humain de Berlin.
Les chercheurs ont identifié parmi les avantages potentiels des LLM la possibilité d’accroître considérablement l’accessibilité dans les processus collectifs. Ils éliminent les barrières grâce à des services de traduction et d’aide à la rédaction, par exemple en permettant à des personnes d’horizons différents de participer de manière égale aux discussions.
En outre, les LLM peuvent accélérer la génération d’idées ou soutenir les processus de formation d’opinion, par exemple en apportant des informations utiles aux discussions, en résumant différentes opinions et en trouvant un consensus.
Mais le recours aux LLM comporte également des risques importants. Par exemple, ils pourraient saper la motivation des individus à contribuer à des sites de connaissances collectives comme Wikipédia et Stack Overflow. Si les utilisateurs s'appuient de plus en plus sur des modèles propriétaires, l'ouverture et la diversité du paysage des connaissances pourraient être mises en danger. Un autre problème est le risque de faux consensus et d'ignorance pluraliste, où l'on croit à tort que la majorité accepte une norme.
« Étant donné que les étudiants en master apprennent à partir d'informations disponibles en ligne, il existe un risque que les points de vue minoritaires ne soient pas représentés dans les réponses générées par les étudiants en master. Cela peut créer un faux sentiment d'accord et marginaliser certaines perspectives », souligne Jason Burton, auteur principal de l'étude et professeur adjoint à la Copenhagen Business School et chercheur associé au MPIB.
« L’intérêt de cet article est qu’il démontre pourquoi nous devons réfléchir de manière proactive à la manière dont les LLM modifient l’environnement de l’information en ligne et, par conséquent, notre intelligence collective – pour le meilleur et pour le pire », résume le co-auteur Joshua Becker, professeur adjoint à l’University College de Londres.
Les auteurs appellent à une plus grande transparence dans la création des LLM, notamment en divulguant les sources de données de formation, et suggèrent que les concepteurs de LLM soient soumis à des audits et à un suivi externes. Cela permettrait de mieux comprendre comment les LLM sont réellement développés et d'atténuer les évolutions défavorables.
L’article propose également des encadrés d’information compacts sur des sujets liés aux LLM, notamment le rôle de l’intelligence collective dans la formation des LLM. Les auteurs y réfléchissent au rôle des humains dans le développement des LLM, notamment sur la manière d’aborder des objectifs tels que la représentation diversifiée.
Deux encadrés d’information axés sur la recherche décrivent comment les LLM peuvent être utilisés pour simuler l’intelligence collective humaine et identifient les questions de recherche ouvertes, comme la manière d’éviter l’homogénéisation des connaissances et la manière dont le crédit et la responsabilité doivent être répartis lorsque des résultats collectifs sont co-créés avec les LLM.