Les grands modèles de langage présentent un risque pour la science en cas de fausses réponses, selon une étude
Les grands modèles linguistiques (LLM) constituent une menace directe pour la science en raison de ce que l’on appelle les « hallucinations » (réponses mensongères) et devraient être limités pour protéger la vérité scientifique, selon un nouvel article rédigé par d’éminents chercheurs en intelligence artificielle de l’Oxford Internet Institute.
L’article des professeurs Brent Mittelstadt, Chris Russell et Sandra Wachter a été publié dans Comportement humain. Il explique : « Les LLM sont conçus pour produire des réponses utiles et convaincantes sans aucune garantie absolue quant à leur exactitude ou leur alignement avec les faits. »
L’une des raisons à cela est que les données utilisées par la technologie pour répondre aux questions ne proviennent pas toujours d’une source factuellement correcte. Les LLM sont formés sur de grands ensembles de données de texte, généralement extraits de sources en ligne. Ceux-ci peuvent contenir de fausses déclarations, opinions et écrits créatifs, entre autres types d’informations non factuelles.
Le professeur Mittelstadt explique : « Les personnes qui utilisent les LLM anthropomorphisent souvent la technologie, où ils lui font confiance en tant que source d’informations de type humain. Cela est dû en partie à la conception des LLM comme des agents utiles, à consonance humaine, qui conversent avec les utilisateurs et répondent. apparemment n’importe quelle question avec un texte confiant et bien écrit. Le résultat est que les utilisateurs peuvent facilement être convaincus que les réponses sont exactes même lorsqu’elles n’ont aucun fondement factuel ou qu’elles présentent une version biaisée ou partielle de la vérité.
Pour protéger la science et l’éducation de la diffusion d’informations erronées et biaisées, soutiennent les auteurs, des attentes claires doivent être définies quant à la contribution que les LLM peuvent apporter de manière responsable et utile. Selon le journal, « Pour les tâches où la vérité compte, nous encourageons les utilisateurs à rédiger des invites de traduction comprenant des informations factuelles vérifiées. »
Le professeur Wachter déclare : « La manière dont les LLM sont utilisés est importante. Dans la communauté scientifique, il est essentiel que nous ayons confiance dans les informations factuelles, il est donc important d’utiliser les LLM de manière responsable. Si les LLM sont utilisés pour générer et diffuser des articles scientifiques, des préjudices graves pourraient en résulter. »
Le professeur Russell ajoute : « Il est important de prendre du recul par rapport aux opportunités offertes par les LLM et de se demander si nous voulons donner ces opportunités à une technologie simplement parce que nous le pouvons. »
Les LLM sont actuellement traités comme des bases de connaissances et utilisés pour générer des informations en réponse à des questions. Cela rend l’utilisateur vulnérable à la fois aux fausses informations régurgitées qui étaient présentes dans les données d’entraînement et aux « hallucinations » – de fausses informations générées spontanément par le LLM qui n’étaient pas présentes dans les données d’entraînement.
Pour surmonter ce problème, soutiennent les auteurs, les LLM devraient plutôt être utilisés comme des « traducteurs zéro tir ». Plutôt que de compter sur le LLM comme source d’informations pertinentes, l’utilisateur doit simplement fournir au LLM les informations appropriées et lui demander de les transformer en un résultat souhaité. Par exemple, réécrire des puces en guise de conclusion ou générer du code pour transformer des données scientifiques en graphique.
Utiliser les LLM de cette manière permet de vérifier plus facilement que le résultat est factuellement correct et cohérent avec l’entrée fournie.
Les auteurs reconnaissent que la technologie facilitera sans aucun doute les flux de travail scientifiques, mais sont clairs sur le fait que l’examen minutieux de ses résultats est essentiel pour protéger une science solide.
« Pour protéger la science, nous devons utiliser les LLM comme traducteurs zéro-shot », a déclaré l’auteur principal, directeur de la recherche, professeur agrégé et chercheur principal, Dr Brent Mittelstadt, Oxford Internet Institute.