Aborder le dilemme éthique de la responsabilité dans les grands modèles linguistiques

Aborder le dilemme éthique de la responsabilité dans les grands modèles linguistiques

Crédit : Pixabay/CC0 Domaine public

Des chercheurs de l’Université d’Oxford, en collaboration avec des experts internationaux, ont publié une nouvelle étude en Intelligence des machines naturelles aborder les questions éthiques complexes entourant la responsabilité des résultats générés par les grands modèles linguistiques (LLM).

L’étude révèle que les LLM comme ChatGPT posent des questions cruciales concernant l’attribution du crédit et des droits pour la génération de textes utiles, s’écartant des débats traditionnels sur la responsabilité de l’IA qui se concentraient principalement sur les conséquences néfastes.

« Les LLM tels que ChatGPT entraînent un besoin urgent de mise à jour de notre concept de responsabilité », déclarent Sebastian Porsdam Mann et Brian D. Earp, co-auteurs de l’étude.

Une conclusion clé de la recherche, selon les co-auteurs Sven Nyholm et John Danaher, « est que si les utilisateurs humains de ces technologies ne peuvent pas pleinement s’attribuer le mérite des résultats positifs générés par un LLM, il semble toujours approprié de les tenir responsables des utilisations nocives. , par exemple en générant des informations erronées ou en négligeant de vérifier l’exactitude » du texte généré.

Cela peut conduire à une situation que Nyholm et Danaher, s’appuyant sur des travaux antérieurs, ont appelée « l’écart de réussite »: « Un travail utile est en cours, mais les gens ne peuvent plus en tirer autant de satisfaction ou de reconnaissance qu’avant. »

Julian Savulescu, l’auteur principal de l’article, ajoute : « Nous avons besoin de lignes directrices sur la paternité, les exigences de divulgation, l’utilisation pédagogique et la propriété intellectuelle, en s’appuyant sur les instruments normatifs existants et des débats pertinents similaires, comme sur l’amélioration humaine ». Les normes exigeant la transparence sont particulièrement importantes, poursuit Savulescu, « pour suivre la responsabilité et attribuer correctement les louanges et les reproches ».

L’étude, co-écrite par une équipe interdisciplinaire d’experts en droit, bioéthique, apprentissage automatique et domaines connexes, se penche sur l’impact potentiel des LLM dans des domaines critiques tels que l’éducation, l’édition universitaire, la propriété intellectuelle et la génération d’erreurs. et la désinformation.

L’éducation et l’édition ont particulièrement besoin d’une action rapide sur les lignes directrices pour l’utilisation et la responsabilité du LLM. « Nous recommandons que les soumissions d’articles incluent une déclaration sur l’utilisation du LLM, ainsi que des informations supplémentaires pertinentes », déclarent les co-auteurs John McMillan et Daniel Rodger. « La divulgation pour les LLM devrait être similaire à celle des contributeurs humains, reconnaissant les contributions importantes. »

Le document souligne que les LLM peuvent être utiles dans l’éducation, mais prévient qu’ils sont sujets aux erreurs et qu’une utilisation excessive pourrait affecter les capacités de réflexion critique. Les institutions, écrivent les auteurs, devraient envisager d’adapter les styles d’évaluation, de repenser la pédagogie et de mettre à jour les directives sur l’inconduite académique pour gérer efficacement l’utilisation du LLM.

Les droits sur le texte généré, tels que les droits de propriété intellectuelle et les droits de l’homme, constituent un autre domaine dans lequel les implications de l’utilisation du LLM doivent être élaborées rapidement, note la co-auteure Monika Plozza. « Les droits de propriété intellectuelle et les droits de l’homme posent des défis car ils reposent sur des notions de travail et de créativité établies en pensant aux humains. Nous devons développer ou adapter des cadres tels que la « contribution » pour gérer cette technologie en évolution rapide, tout en protégeant les droits des créateurs et des utilisateurs. . »

Toutes les utilisations prévisibles des LLM ne sont pas bénignes. « Les LLM peuvent être utilisés pour générer des contenus préjudiciables, y compris la mésinformation et la désinformation à grande échelle », prévient le co-auteur Julian Koplin. « C’est pourquoi nous devons tenir les gens responsables de l’exactitude du texte généré par LLM qu’ils utilisent, parallèlement aux efforts visant à éduquer les utilisateurs et à améliorer les politiques de modération du contenu pour atténuer les risques. »

Pour faire face à ces risques et à d’autres liés aux LLM, affirment les co-auteurs Nikolaj Møller et Peter Treit, les développeurs de LLM pourraient suivre l’exemple de l’autorégulation dans des domaines comme la biomédecine. « Construire et mériter la confiance est crucial pour le développement futur des LLM. En promouvant la transparence et en s’engageant dans des discussions ouvertes, les développeurs LLM peuvent démontrer leur engagement envers des pratiques responsables et éthiques.