Les experts encouragent l’utilisation proactive de ChatGPT avec de nouvelles normes éthiques
par Frederik Efferenn, Alexander von Humboldt Institut für Internet und Gesellschaft
Les grands modèles de langage (LLM), tels que ceux utilisés par le chatbot ChatGPT, ont le pouvoir de révolutionner le système scientifique. Telle est la conclusion d’une étude Delphi menée par l’Institut Alexander von Humboldt pour Internet et la société (HIIG), englobant une enquête approfondie auprès de 72 experts internationaux spécialisés dans les domaines de l’IA et de la recherche sur la numérisation.
Les répondants soulignent que les effets positifs sur la pratique scientifique l’emportent nettement sur les effets négatifs. Dans le même temps, ils soulignent la tâche urgente de la science et de la politique de lutter activement contre une éventuelle désinformation par les LLM afin de préserver la crédibilité de la recherche scientifique. Ils appellent donc à une réglementation proactive, à la transparence et à de nouvelles normes éthiques dans l’utilisation de l’IA générative.
L’étude « Friend or Foe? Exploring the Implications of Large Language Models on the Science System » est désormais disponible en prépublication sur le arXiv serveur.
Selon les experts, les effets positifs sont les plus évidents dans le domaine textuel du travail universitaire. À l’avenir, les grands modèles linguistiques amélioreront l’efficacité des processus de recherche en automatisant diverses tâches impliquées dans la rédaction et la publication d’articles. De même, ils peuvent soulager les scientifiques des procédures croissantes de rapports administratifs et de propositions de recherche qui se sont considérablement développées ces dernières années.
En conséquence, ils créent du temps supplémentaire pour la réflexion critique et ouvrent la voie à de nouvelles innovations, car les chercheurs peuvent se recentrer sur leur contenu de recherche et le communiquer efficacement à un public plus large.
Tout en reconnaissant les avantages indéniables, l’étude souligne l’importance de s’attaquer aux éventuelles conséquences négatives. Selon les répondants, les LLM ont le potentiel de générer de fausses affirmations scientifiques qui ne peuvent être distinguées des véritables résultats de recherche à première vue. Cette désinformation pourrait se propager dans les débats publics et influencer les décisions politiques, exerçant un impact négatif sur la société. De même, des données de formation erronées provenant de grands modèles linguistiques peuvent intégrer divers stéréotypes racistes et discriminatoires dans les textes produits.
Ces erreurs pourraient infiltrer les débats scientifiques si les chercheurs intègrent le contenu généré par le LLM dans leur travail quotidien sans vérification approfondie.
Pour surmonter ces défis, les chercheurs doivent acquérir de nouvelles compétences. Ceux-ci incluent la capacité de contextualiser de manière critique les résultats des LLM. À une époque où la désinformation provenant de grands modèles linguistiques est en augmentation, les chercheurs doivent utiliser leur expertise, leur autorité et leur réputation pour faire avancer un discours public objectif. Ils plaident pour des réglementations légales plus strictes, une transparence accrue des données de formation ainsi que la culture de pratiques responsables et éthiques dans l’utilisation de l’IA générative dans le système scientifique.
Le Dr Benedikt Fecher, chercheur principal de l’enquête, commente : « Les résultats soulignent le potentiel de transformation des grands modèles linguistiques dans la recherche scientifique. Bien que leurs énormes avantages l’emportent sur les risques, les avis d’experts des domaines de l’IA et de la numérisation montrent à quel point il est important de relever concrètement les défis liés à la désinformation et à la perte de confiance dans la science. Si nous utilisons les LLM de manière responsable et respectons les directives éthiques, nous pouvons les utiliser pour maximiser l’impact positif et minimiser les dommages potentiels.
Fourni par Alexander von Humboldt Institut für Internet und Gesellschaft