Un nouveau « modèle » pour faire progresser l’IA pratique et fiable

Un nouveau « modèle » pour faire progresser l’IA pratique et fiable

Un nouveau « plan » pour développer l'IA, qui met en évidence la manière dont la technologie peut apprendre de différents types de données, au-delà de la vision et du langage, pour la rendre plus déployable dans le monde réel, a été développé par des chercheurs de l'Université de Sheffield et de l'Institut Alan Turing.

Le cadre, qui peut servir de guide sur la manière de créer et de déployer l’IA, pourrait rendre la technologie plus pratique, éthique et efficace dans la résolution de problèmes du monde réel.

Publié dans la revue Intelligence des machines naturellesle cadre est une feuille de route pour la création de systèmes d'IA multimodaux qui apprennent à partir de différents types de données telles que le texte, les images, le son et les lectures de capteurs.

L’IA apprend généralement à partir d’un type d’informations, comme du texte ou des images, mais ces systèmes d’IA multimodaux plus avancés intègrent différentes sources de données pour former une image plus complète du monde. Cependant, malgré ces avantages, l’étude a révélé que la plupart des systèmes et recherches d’IA multimodaux apprennent encore principalement à partir de données visuelles et linguistiques, ce qui, selon les chercheurs, limite leur capacité et leur potentiel à relever des défis complexes qui nécessitent des données plus larges.

Par exemple, la combinaison de données visuelles, de capteurs et environnementales pourrait aider les voitures autonomes à fonctionner de manière plus sûre dans des conditions complexes, tandis que l’intégration de données médicales, cliniques et génomiques pourrait rendre les outils d’IA plus précis pour diagnostiquer les maladies et soutenir la découverte de médicaments.

Le nouveau cadre pourrait être utilisé à la fois par les développeurs industriels et les chercheurs universitaires, en particulier à la lumière des résultats montrant que 88,9 % des articles présentant l'IA qui s'appuient sur exactement deux types de données différents publiés sur arXiv– un référentiel ouvert de premier plan pour les prépublications informatiques – impliquait en 2024 des données de vision ou de langage.

Le professeur Haiping Lu, qui a dirigé l'étude de l'École d'informatique et du Centre d'intelligence artificielle de l'Université de Sheffield, a déclaré : « L'IA a fait de grands progrès en matière de vision et de langage, mais le monde réel est bien plus riche et complexe. Pour relever des défis mondiaux tels que les pandémies, l'énergie durable et le changement climatique, nous avons besoin d'une IA multimodale qui intègre des types plus larges de données et d'expertise.

« L'étude fournit un modèle de déploiement de l'IA qui fonctionne au-delà du laboratoire, en se concentrant sur la sécurité, la fiabilité et l'utilité dans le monde réel. »

La recherche illustre la nouvelle approche à travers trois cas d’utilisation réels – réponse à une pandémie, conception de voitures autonomes et adaptation au changement climatique – réunissant 48 contributeurs de 22 institutions du Royaume-Uni et du monde entier.

Le Dr Louisa van Zeeland, responsable de la recherche à l'Institut Alan Turing, a déclaré : « En intégrant et en modélisant des ensembles de données vastes et diversifiés grâce à l'IA multimodale, notre travail avec les collaborateurs de Turing établit une nouvelle norme en matière de prévision environnementale.