L’IA est sur le point de transformer la science, mais en comprendrons-nous les résultats ?
L’intelligence artificielle (IA) occupe une place centrale dans la science fondamentale. Les cinq lauréats des prix Nobel de chimie et de physique 2024 partageaient un fil conducteur : l’IA.
En effet, de nombreux scientifiques, y compris les comités Nobel, célèbrent l’IA comme une force de transformation de la science.
Comme l’a dit l’un des lauréats, le potentiel de l’IA pour accélérer la découverte scientifique en fait « l’une des technologies les plus transformatrices de l’histoire de l’humanité ». Mais que signifiera réellement cette transformation pour la science ?
L’IA promet d’aider les scientifiques à faire plus, plus rapidement et avec moins d’argent. Mais cela soulève également une foule de nouvelles préoccupations, et si les scientifiques se précipitent dans l’adoption de l’IA, ils risquent de transformer la science en quelque chose qui échappe à la compréhension et à la confiance du public et qui ne parvient pas à répondre aux besoins de la société.
Les illusions de la compréhension
Les experts ont déjà identifié au moins trois illusions qui peuvent piéger les chercheurs utilisant l’IA.
Le premier est « l’illusion de profondeur explicative ». Ce n’est pas parce qu’un modèle d’IA excelle dans la prédiction d’un phénomène – comme AlphaFold, qui a remporté le prix Nobel de chimie pour ses prédictions sur les structures des protéines – qu’il peut l’expliquer avec précision. La recherche en neurosciences a déjà montré que les modèles d’IA conçus pour une prédiction optimisée peuvent conduire à des conclusions trompeuses sur les mécanismes neurobiologiques sous-jacents.
Deuxièmement, il y a « l’illusion de l’ampleur de l’exploration ». Les scientifiques pourraient penser qu’ils étudient toutes les hypothèses vérifiables dans leurs recherches exploratoires, alors qu’en réalité ils n’examinent qu’un ensemble limité d’hypothèses pouvant être testées à l’aide de l’IA.
Enfin, « l’illusion d’objectivité ». Les scientifiques peuvent croire que les modèles d’IA sont exempts de biais ou qu’ils peuvent tenir compte de tous les biais humains possibles. En réalité, cependant, tous les modèles d’IA reflètent inévitablement les biais présents dans leurs données de formation et les intentions de leurs développeurs.
Une science moins chère et plus rapide
L’une des principales raisons de l’attrait croissant de l’IA dans le domaine scientifique est sa capacité à produire davantage de résultats, plus rapidement et à un coût bien inférieur.
Un exemple extrême de cette poussée est la machine « AI Scientist » récemment développée par Sakana AI Labs. La vision de l'entreprise est de développer un « système entièrement piloté par l'IA pour la découverte scientifique automatisée », dans lequel chaque idée peut être transformée en un document de recherche complet pour seulement 15 dollars américains – même si les critiques ont déclaré que le système produisait « une pente scientifique sans fin ».
Voulons-nous vraiment un avenir où les documents de recherche pourront être produits en quelques clics, simplement pour « accélérer » la production scientifique ? Cela risque d’inonder l’écosystème scientifique d’articles sans signification ni valeur, mettant ainsi à rude épreuve un système d’évaluation par les pairs déjà surchargé.
Nous pourrions nous retrouver dans un monde où la science, telle que nous la connaissions autrefois, est ensevelie sous le bruit du contenu généré par l’IA.
Un manque de contexte
L'essor de l'IA dans la science intervient à un moment où la confiance du public dans la science et les scientifiques est encore assez élevée, mais nous ne pouvons pas la tenir pour acquise. La confiance est complexe et fragile.
Comme nous l’avons appris pendant la pandémie de COVID, les appels à « faire confiance à la science » peuvent échouer car les preuves scientifiques et les modèles informatiques sont souvent contestés, incomplets ou ouverts à diverses interprétations.
Cependant, le monde est confronté à de nombreux problèmes, tels que le changement climatique, la perte de biodiversité et les inégalités sociales, qui nécessitent des politiques publiques élaborées avec le jugement d’experts. Ce jugement doit également être sensible aux situations spécifiques, en rassemblant les apports de diverses disciplines et expériences vécues qui doivent être interprétées à travers le prisme de la culture et des valeurs locales.
Comme l’affirmait un rapport du Conseil scientifique international publié l’année dernière, la science doit reconnaître les nuances et le contexte pour rétablir la confiance du public. Laisser l’IA façonner l’avenir de la science pourrait compromettre les progrès durement acquis dans ce domaine.
Si nous permettons à l’IA de prendre la tête de la recherche scientifique, nous risquons de créer une monoculture du savoir qui donne la priorité aux types de questions, de méthodes, de perspectives et d’experts les mieux adaptés à l’IA.
Cela peut nous éloigner de l’approche transdisciplinaire essentielle à une IA responsable, ainsi que du raisonnement public et du dialogue nuancés nécessaires pour relever nos défis sociaux et environnementaux.
Un nouveau contrat social pour la science
Au début du XXIe siècle, certains affirmaient que les scientifiques disposaient d’un contrat social renouvelé dans lequel ils concentraient leurs talents sur les problèmes les plus urgents de notre époque en échange de financements publics. L’objectif est d’aider la société à évoluer vers une biosphère plus durable, écologiquement saine, économiquement viable et socialement juste.
L’essor de l’IA offre aux scientifiques l’opportunité non seulement de s’acquitter de leurs responsabilités, mais aussi de revitaliser le contrat lui-même. Cependant, les communautés scientifiques devront d’abord se pencher sur certaines questions importantes concernant l’utilisation de l’IA.
Par exemple, l’utilisation de l’IA dans la science est-elle une sorte d’« externalisation » qui pourrait compromettre l’intégrité des travaux financés par des fonds publics ? Comment cela doit-il être géré ?
Qu’en est-il de l’empreinte environnementale croissante de l’IA ? Et comment les chercheurs peuvent-ils rester en phase avec les attentes de la société tout en intégrant l’IA dans le pipeline de recherche ?
L’idée de transformer la science grâce à l’IA sans établir au préalable ce contrat social risque de mettre la charrue avant les bœufs.
Laisser l’IA façonner nos priorités de recherche sans la contribution de diverses voix et disciplines peut conduire à une inadéquation avec les besoins réels de la société et entraîner une mauvaise allocation des ressources.
La science doit bénéficier à la société dans son ensemble. Les scientifiques doivent engager de véritables conversations sur l’avenir de l’IA au sein de leur communauté de pratique et avec les acteurs de la recherche. Ces discussions devraient aborder les dimensions de ce contrat social renouvelé, reflétant des objectifs et des valeurs partagés.
Il est temps d’explorer activement les différents avenirs que l’IA pour la science permet ou bloque – et d’établir les normes et lignes directrices nécessaires pour exploiter son potentiel de manière responsable.