Les nouveaux laboratoires miniatures garantissent que l'IA ne fait pas d'erreurs

Les nouveaux laboratoires miniatures garantissent que l’IA ne fait pas d’erreurs

Quiconque développe une solution d’IA se déroule parfois dans l’inconnu. Au moins au début, les chercheurs et les concepteurs ne savent pas toujours si leurs algorithmes et modèles d’IA fonctionneront comme prévu ou si l’IA fera finalement des erreurs.

Parfois, les applications d’IA qui fonctionnent bien en théorie fonctionnent mal dans des conditions réelles. Cependant, pour gagner la confiance des utilisateurs, une IA devrait fonctionner de manière fiable et correcte. Cela s’applique autant aux chatbots populaires que aux outils d’IA dans la recherche.

Tout nouvel outil d’IA doit être testé soigneusement avant d’être déployé dans le monde réel. Cependant, les tests dans le monde réel peuvent être une entreprise coûteuse, voire risquée. Pour cette raison, les chercheurs testent souvent leurs algorithmes dans des simulations informatiques de la réalité. Cependant, comme les simulations sont des approximations de la réalité, tester les solutions d’IA de cette manière peut amener les chercheurs à surestimer les performances d’une IA.

Écrire Intelligence de la machine de la natureLe mathématicien ETH Juan Gamella présente une nouvelle approche que les chercheurs peuvent utiliser pour vérifier à quel point leurs algorithmes et modèles d’IA fonctionnent de manière fiable et correcte.

Un modèle d’IA est basé sur certaines hypothèses et est formé pour apprendre des données et effectuer des tâches de intelligence. Un algorithme comprend les règles mathématiques que le modèle d’IA suit pour traiter une tâche.

Tester l’IA au lieu de surestimer

Gamella a construit des laboratoires miniatures spéciaux (« mini-laboratoires ») qui peuvent être utilisés comme bergers de test pour de nouveaux algorithmes d’IA.

« Les mini-laboratoires fournissent un environnement de test flexible qui fournit des données de mesure réelles. Ils sont un peu comme un terrain de jeu pour les algorithmes, où les chercheurs peuvent tester leur IA au-delà des données simulées dans un environnement contrôlé et sûr », explique Gamella.

Les mini-laboratoires sont construits autour de la physique bien compris, afin que les chercheurs puissent utiliser ces connaissances pour vérifier si leurs algorithmes arrivent à la bonne solution pour une variété de problèmes. Si une IA échoue au test, les chercheurs peuvent apporter des améliorations ciblées aux hypothèses mathématiques sous-jacentes et aux algorithmes au début du processus de développement.

Les premières mini-laboratoires de Gamella sont basées sur deux systèmes physiques qui présentent des propriétés essentielles que de nombreux outils d’IA doivent gérer dans des conditions réelles. La façon dont les mini-laboratoires sont utilisées dépend de la question examinée et de ce que l’algorithme est destiné à faire. Par exemple, sa première mini-lutte contient un système dynamique tel que le vent qui change et réagit constamment aux influences externes.

Il peut être utilisé pour tester les outils d’IA pour les problèmes de contrôle. Sa deuxième mini-laboratoire, qui obéit aux lois bien compris de la physique pour la lumière, peut être utilisée pour tester une IA qui vise à apprendre automatiquement de telles lois à partir des données et aide ainsi les scientifiques à faire de nouvelles découvertes.

Les mini-laboratoires sont des périphériques tangibles, de la taille d’un ordinateur de bureau, qui peuvent être utilisés par télécommande. Ils rappellent les expériences de démonstration historiques menées par des chercheurs à partir du XVIe siècle pour présenter, discuter et améliorer leurs théories et résultats dans les sociétés scientifiques.

Gamella compare le rôle des mini-laboratoires dans la conception des algorithmes d’IA à celui d’une soufflerie dans la construction d’avions: lorsqu’un nouvel avion est en cours de développement, la plupart des travaux de conception sont initialement effectués à l’aide de simulations informatiques car elle est plus efficace et plus efficace.

Une fois que les ingénieurs ont convenu de leurs conceptions, ils construisent des modèles miniatures et les testent dans une soufflerie. Ce n’est qu’alors qu’ils construisent un avion de grande taille et le testent sur de vrais vols.

Les nouveaux laboratoires miniatures garantissent que l'IA ne fait pas d'erreurs

Une étape intermédiaire entre la simulation et la réalité

« Comme la soufflerie pour les avions, les mini-laboratoires servent de vérification de la santé mentale pour s’assurer que tout fonctionne tôt alors que nous passons de la simulation à la réalité », explique Gamella.

Il considère le test des algorithmes d’IA dans un environnement contrôlé comme une étape intermédiaire cruciale pour s’assurer qu’une IA fonctionne dans des scénarios complexes du monde réel. Les mini-laboratoires fournissent cela pour certains types d’IA, en particulier ceux conçus pour interagir directement avec le monde physique.

Les mini-laboratoires aident les chercheurs à étudier le problème de la transition de la simulation à la réalité en fournissant un lit d’essai où ils peuvent effectuer autant d’expériences qu’ils en ont besoin. Ce problème de transition est également pertinent à l’intersection entre la robotique et l’IA, où les algorithmes d’IA sont souvent formés pour résoudre les tâches dans un environnement simulé, et seulement alors dans le monde réel. Cela augmente la fiabilité.

Gamella lui-même a commencé avec un baccalauréat en mathématiques avant de poursuivre une maîtrise en robotique à ETH. En tant que doctorant, il est retourné en mathématiques et en recherche sur l’IA.

Il a gardé son flair pour la physique et la technologie. « Je veux développer des outils qui aident les scientifiques à résoudre les questions de recherche. »

La demande de ses mini-laboratoires ne se limite pas à l’ingénierie. Avec un collègue du Charité University Hospital de Berlin, il a tenté de concevoir une mini-laboratoire pour tester les algorithmes de l’IA en biologie cellulaire et en biologie synthétique. Cependant, les coûts étaient trop élevés.

En revanche, son deuxième mini-laboratoire, un tunnel léger, est déjà utilisé comme environnement de test en production industrielle – pour un problème optique. Les mini-laboratoires ont également contribué à tester diverses nouvelles méthodes pour la façon dont les grands modèles de langage (LLM) peuvent faire des prédictions externes externes dans le monde réel.

AI causal – la solution miracle pour une IA correcte

Gamella a adopté l’approche de Silver Bulte pour prouver la pertinence de ses mini-laboratoires – et démontre finalement qu’ils sont utiles même pour les questions de l’IA causale. La recherche sur la causalité et l’IA causale sont un domaine clé des statistiques et de l’informatique théorique qui est fondamentale pour les modèles d’IA: pour que les modèles d’IA fonctionnent de manière fiable et correcte, ils doivent comprendre les relations causales.

Cependant, les modèles d’IA ne reflètent souvent pas les relations causales du monde, mais font plutôt des prédictions basées sur des corrélations statistiques. Scientifiquement parlant, la causalité est un concept fondamental qui décrit les relations entre la cause et l’effet.

L’IA causale fait référence aux modèles d’IA qui reconnaissent les relations de cause à effet. Les résultats de l’IA causale sont plus précis et transparents. C’est pourquoi l’IA causale est importante pour les domaines tels que la médecine, l’économie et la recherche climatique.

De nouvelles méthodes statistiques sont nécessaires pour développer une IA causale, car les relations causales sont parfois influencées par des circonstances et des coïncidences particulières. De plus, ils ne peuvent pas être facilement séparés les uns des autres dans des contextes complexes.

Gamella a travaillé sur la recherche en partenariat avec les professeurs de mathématiques de l’ETH Peter Bühlmann et Jonas Peters. Les deux ont développé des approches importantes pour identifier les relations causales dans des conditions changeantes et les distinguer des influences confondantes ou du bruit aléatoire.

« Cependant, ces méthodes sont généralement difficiles à tester dans le monde réel », explique Gamella. « Pour ce faire, nous avons besoin de données de systèmes où les relations de cause à effet sont déjà connues pour vérifier si nos algorithmes peuvent les apprendre avec précision. Ces données sont difficiles à trouver. »

Pour la publication, les trois chercheurs de l’ETH ont donc testé les algorithmes d’IA causaux dans les mini-laboratoires construits par Gamella. Il se réfère également à ses mini-laboratoires comme des « chambres causales ».

Tout d’abord, ils ont testé si les algorithmes ont appris le modèle causal correct pour chaque mini-laboratoire, c’est-à-dire pour le vent et la lumière. Ils ont également observé dans quelle mesure les algorithmes identifiés quels facteurs s’influencent mutuellement et comment ils fonctionnent dans des conditions inhabituelles ou lorsque des changements soudains se produisent.

Peter Bühlmann, superviseur de doctorat de Gamella, est plein d’éloges, disant: « Les chambres causales sont un ajout précieux à la recherche sur la causalité. De nouveaux algorithmes peuvent être validés de manière sans précédent. »

Gamella est satisfait des avantages inattendus que les chambres causales offrent à l’enseignement. « Étant donné que les mini-laboratoires offrent un terrain de jeu sûr pour les algorithmes, ils sont également un excellent terrain de jeu pour les étudiants », dit-il.

Les professeurs de l’IA, des statistiques et d’autres domaines d’ingénierie peuvent les utiliser pour permettre à leurs élèves d’appliquer directement ce qu’ils ont appris dans un environnement pratique. Les professeurs du monde entier ont déjà exprimé leur intérêt, et Gamella met désormais en place des études pilotes à Eth Zurich et à l’Université de Liège.