Les éthiciens se demandent si les créateurs de LLM ont l'obligation légale de garantir la fiabilité
Un trio d'éthiciens de l'Oxford Internet Institute de l'Université d'Oxford a publié un article dans la revue La science ouverte de la Royal Society se demande si les créateurs de LLM ont des obligations légales concernant l’exactitude des réponses qu’ils donnent aux requêtes des utilisateurs.
Les auteurs, Sandra Wachter, Brent Mittelstadt et Chris Russell, se demandent également si les entreprises devraient être obligées d’ajouter des fonctionnalités aux résultats qui permettent aux utilisateurs de mieux juger si les réponses qu’ils reçoivent sont exactes.
À mesure que les LLM deviennent de plus en plus répandus, leur utilisation est devenue un sujet de spéculation : les étudiants devraient-ils être autorisés à les utiliser pour leurs devoirs, par exemple, ou les employés d’entreprise ou du gouvernement devraient-ils pouvoir les utiliser pour mener des affaires sérieuses ?
Ce constat est d’autant plus évident que les LLM commettent souvent des erreurs, parfois très graves. Dans cette nouvelle initiative, l’équipe d’Oxford suggère que les créateurs de LLM soient tenus davantage responsables de leurs produits en raison de la gravité des problèmes soulevés.
Les chercheurs reconnaissent que les créateurs de LLM ne peuvent pas être légalement tenus de produire des LLM qui ne produisent que des réponses correctes et raisonnables – à l’heure actuelle, ce n’est pas techniquement possible. Mais ils suggèrent également que les entreprises ne devraient pas s’en tirer à bon compte.
Ils se demandent si le moment n’est pas venu d’instaurer une obligation légale de mettre davantage l’accent sur la véracité et/ou l’exactitude de leurs produits. Et si cela est impossible, ils suggèrent que les créateurs de LLM pourraient au moins être obligés d’ajouter des fonctionnalités telles que l’inclusion de citations dans leurs réponses pour aider les utilisateurs à décider si elles sont correctes – ou peut-être d’ajouter des fonctionnalités qui donnent aux utilisateurs une idée du niveau de confiance des réponses données.
Si un chatbot n’est pas sûr d’une réponse, notent-ils, il pourrait peut-être simplement le dire au lieu de générer une réponse ridicule.
Les chercheurs suggèrent également que les LLM utilisés dans des domaines à haut risque comme les soins de santé ne devraient être formés que sur des données réellement utiles, comme celles des revues universitaires, ce qui augmenterait considérablement leur précision. Ils suggèrent que leur travail ouvre la voie à une amélioration possible de la précision des LLM, un problème qui pourrait gagner en importance à mesure que ces derniers deviennent une source d'information plus courante.