Un groupe interdisciplinaire propose des lignes directrices pour l’utilisation de l’IA en science

Un groupe interdisciplinaire propose des lignes directrices pour l’utilisation de l’IA en science

L’intelligence artificielle (IA) génère des textes, des vidéos et des images qui se distinguent difficilement de ceux des humains, avec pour résultat que nous ne savons souvent plus ce qui est réel. Les chercheurs et les scientifiques sont de plus en plus soutenus par l’IA. C’est pourquoi un groupe de travail international a désormais élaboré des principes pour l’utilisation de l’IA dans la recherche afin de garantir la confiance dans la science.

La science prospère grâce à la reproductibilité, à la transparence et à la responsabilité, et la confiance dans la recherche vient notamment du fait que les résultats sont valables quelle que soit l’institution où ils ont été produits. De plus, les données sous-jacentes à une étude doivent être publiées et les chercheurs doivent assumer la responsabilité de leurs publications.

Et si l’IA était impliquée dans la recherche ? Les experts utilisent depuis longtemps les outils d’IA pour concevoir de nouvelles molécules, évaluer des données complexes et même générer des questions de recherche ou prouver une conjecture mathématique. L’IA change le visage de la recherche et les experts se demandent si les résultats sont encore fiables.

Cinq principes devraient continuer à garantir la responsabilité humaine dans la recherche, selon un groupe de travail interdisciplinaire composé de membres du monde politique, du monde des affaires et du monde universitaire qui a publié un éditorial dans le dernier numéro de la revue. Actes des Académies nationales des sciences. Urs Gasser, professeur de politique publique, de gouvernance et de technologies innovantes à la TUM, était l'un des experts.

Les recommandations en bref :

  • Les chercheurs doivent divulguer les outils et algorithmes qu’ils ont utilisés et identifier clairement les contributions des machines et des humains.
  • Les chercheurs restent responsables de l’exactitude des données et des conclusions qu’ils en tirent, même s’ils ont utilisé des outils d’analyse d’IA.
  • Les données générées par l’IA doivent être étiquetées de manière à ne pas pouvoir être confondues avec des données et des observations du monde réel.
  • Les experts doivent s’assurer que leurs conclusions sont scientifiquement fondées et ne nuisent pas. Par exemple, le risque que l’IA soit « biaisée » par les données d’entraînement utilisées doit être réduit au minimum.
  • Enfin, les chercheurs, ainsi que les décideurs politiques, la société civile et les entreprises, devraient surveiller l’impact de l’IA et adapter les méthodes et les règles si nécessaire.

« Les principes précédents de l'IA concernaient principalement le développement de l'IA. Les principes développés aujourd'hui se concentrent sur les applications scientifiques et arrivent à point nommé. Ils ont un effet signal pour les chercheurs de toutes les disciplines et de tous les secteurs », explique Gasser.

Le groupe de travail suggère qu'un nouveau conseil stratégique, basé au sein de l'Académie nationale américaine des sciences, de l'ingénierie et de la médecine, conseille la communauté scientifique.

« J'espère que les académies des sciences d'autres pays, notamment ici en Europe, prendront cela en compte pour intensifier davantage le débat sur l'utilisation responsable de l'IA dans la recherche », déclare Gasser.