Un « Coscientist » artificiellement intelligent automatise la découverte scientifique
Un système intelligent non organique a pour la première fois conçu, planifié et exécuté une expérience chimique, rapportent des chercheurs de l’Université Carnegie Mellon dans le numéro du 21 décembre de la revue. Nature.
« Nous prévoyons que les systèmes d’agents intelligents destinés à l’expérimentation scientifique autonome apporteront d’énormes découvertes, des thérapies imprévues et de nouveaux matériaux. Même si nous ne pouvons pas prédire quelles seront ces découvertes, nous espérons voir une nouvelle façon de mener la recherche grâce au partenariat synergique entre les humains et machines », a écrit l’équipe de recherche de Carnegie Mellon dans son article.
Le système, appelé Coscientist, a été conçu par le professeur adjoint de chimie et de génie chimique Gabe Gomes et les doctorants en génie chimique Daniil Boiko et Robert MacKnight. Il utilise de grands modèles de langage (LLM), notamment GPT-4 d’OpenAI et Claude d’Anthropic, pour exécuter l’ensemble du processus expérimental avec une invite en langage simple et clair.
Par exemple, un scientifique pourrait demander à un coscientifique de trouver un composé possédant des propriétés données. Le système parcourt Internet, les données de documentation et d’autres sources disponibles, synthétise les informations et sélectionne un cours d’expérimentation qui utilise des interfaces de programmation d’applications (API) robotiques. Le plan expérimental est ensuite envoyé et complété par des instruments automatisés. Au total, un humain travaillant avec le système peut concevoir et réaliser une expérience beaucoup plus rapidement, avec précision et efficacité qu’un humain seul.
« Au-delà des tâches de synthèse chimique démontrées par leur système, Gomes et son équipe ont réussi à synthétiser une sorte de partenaire de laboratoire hyper-efficace », déclare David Berkowitz, directeur de la division chimie de la National Science Foundation (NSF). « Ils rassemblent toutes les pièces et le résultat final est bien plus que la somme de ses parties : il peut être utilisé à des fins scientifiques véritablement utiles. »
Plus précisément, dans le Nature article, le groupe de recherche a démontré que Coscientist peut planifier la synthèse chimique de composés connus ; rechercher et parcourir la documentation sur le matériel ; utiliser la documentation pour exécuter des commandes de haut niveau dans un laboratoire automatisé appelé laboratoire cloud ; contrôler les instruments de manipulation de liquides ; effectuer des tâches scientifiques qui nécessitent l’utilisation de plusieurs modules matériels et de diverses sources de données ; et résoudre les problèmes d’optimisation en analysant les données précédemment collectées.
« L’utilisation des LLM nous aidera à surmonter l’un des obstacles les plus importants à l’utilisation de laboratoires automatisés : la capacité de coder », a déclaré Gomes. « Si un scientifique peut interagir avec des plateformes automatisées en langage naturel, nous ouvrons le champ à beaucoup plus de personnes. »
Cela inclut les chercheurs universitaires qui n’ont pas accès aux instruments de recherche scientifique avancés que l’on trouve généralement uniquement dans les universités et institutions de premier plan. Un laboratoire automatisé télécommandé, souvent appelé laboratoire cloud ou laboratoire autonome, donne accès à ces scientifiques, démocratisant ainsi la science.
Les chercheurs de Carnegie Mellon se sont associés à Ben Kline d’Emerald Cloud Lab (ECL), un centre de recherche fondé par des anciens de Carnegie Mellon et exploité à distance qui gère tous les aspects du travail quotidien en laboratoire, pour démontrer que Coscientist peut être utilisé pour exécuter des expériences dans un robot automatisé. laboratoire.
« Le travail révolutionnaire du professeur Gomes et de son équipe a non seulement démontré la valeur de l’expérimentation de la conduite autonome, mais a également mis au point un nouveau moyen de partager les fruits de ce travail avec la communauté scientifique au sens large en utilisant la technologie du laboratoire cloud », a déclaré Brian Frezza. , co-fondateur et co-PDG d’ECL.
Carnegie Mellon, en partenariat avec ECL, ouvrira le premier cloud lab dans une université début 2024. Le Carnegie Mellon University Cloud Lab donnera aux chercheurs de l’université et à leurs collaborateurs l’accès à plus de 200 équipements. Gomes prévoit de continuer à développer les technologies décrites dans l’article de Nature qui seront utilisées à l’avenir avec le Carnegie Mellon Cloud Lab et d’autres laboratoires autonomes.
Le coscientifique ouvre en effet également la « boîte noire » de l’expérimentation. Le système suit et documente chaque étape de la recherche, rendant le travail entièrement traçable et reproductible.
« Ce travail montre comment deux outils émergents en chimie – l’IA et l’automatisation – peuvent être intégrés dans un outil encore plus puissant », explique Kathy Covert, directrice du programme Centers for Chemical Innovation de la National Science Foundation des États-Unis, qui a soutenu ces travaux.
« Des systèmes comme Coscientist permettront de nouvelles approches pour améliorer rapidement la façon dont nous synthétisons de nouveaux produits chimiques, et les ensembles de données générés avec ces systèmes seront fiables, reproductibles et réutilisables par d’autres chimistes, augmentant ainsi leur impact. »
Les préoccupations en matière de sécurité concernant les LLM, notamment en ce qui concerne les expérimentations scientifiques, sont primordiales pour Gomes. Dans les informations complémentaires fournies par le journal, l’équipe de Gomes a étudié la possibilité que l’IA puisse être contrainte à fabriquer des produits chimiques dangereux ou des substances contrôlées.
« Je crois que les choses positives que la science basée sur l’IA peut faire dépassent de loin les choses négatives. Mais nous avons la responsabilité de reconnaître ce qui pourrait mal tourner et de fournir des solutions et des sécurités », a déclaré Gomes.
« En garantissant une utilisation éthique et responsable de ces outils puissants, nous pouvons continuer à explorer le vaste potentiel des grands modèles de langage pour faire progresser la recherche scientifique tout en atténuant les risques associés à leur mauvaise utilisation », écrivent les auteurs dans l’article.