Des chercheurs dévoilent une technique d'apprentissage profond en séries chronologiques pour des performances optimales dans les modèles d'IA

Des chercheurs dévoilent une technique d'apprentissage profond en séries chronologiques pour des performances optimales dans les modèles d'IA

Une équipe de chercheurs a dévoilé une technique d’apprentissage automatique de séries chronologiques conçue pour résoudre les problèmes de dérive des données. Cette approche innovante, dirigée par le professeur Sungil Kim et le professeur Dongyoung Lim du Département de génie industriel et de l'École supérieure d'intelligence artificielle de l'UNIST, gère efficacement les intervalles d'échantillonnage irréguliers et les valeurs manquantes dans les données de séries chronologiques réelles, offrant une solution robuste pour garantir performances optimales dans les modèles d’intelligence artificielle (IA).

L'article est publié sur le arXiv serveur de préimpression.

Les données de séries chronologiques, caractérisées par une collecte continue de données chronologiques, sont répandues dans divers secteurs, tels que la finance, les transports et les soins de santé. Cependant, la présence de dérives de données (des changements dans les facteurs externes influençant la génération de données) constitue un obstacle important à l'exploitation efficace des données de séries chronologiques dans les modèles d'IA.

Le professeur Kim a souligné la nécessité cruciale de lutter contre les effets néfastes de la dérive des données sur les modèles d'apprentissage de séries chronologiques, soulignant l'urgence de résoudre ce problème persistant qui entrave l'utilisation optimale des données de séries chronologiques dans les modèles d'IA.

En réponse à ce défi, l'équipe de recherche a introduit une nouvelle méthodologie tirant parti des équations différentielles stochastiques neuronales (SDE neuronales) pour construire des structures de réseaux neuronaux résilientes, capables d'atténuer les impacts des dérives de données.

Les SDE neuronales, une extension des équations différentielles ordinaires neuronales (ODE), représentent des versions continues de modèles de réseaux neuronaux résiduels et constituent la pierre angulaire de l'approche innovante de l'équipe. Grâce à la mise en œuvre de trois modèles SDE neuronaux distincts : SDE de type Langevin, SDE à bruit linéaire et SDE géométrique, les chercheurs ont démontré des performances stables et exceptionnelles dans les tâches d'interpolation, de prédiction et de classification, même en présence de dérive des données.

Traditionnellement, lutter contre la dérive des données nécessitait des ajustements techniques coûteux et fastidieux pour s’adapter à l’évolution des paysages de données. Cependant, la méthodologie de l'équipe offre une solution proactive en garantissant que les modèles d'IA restent résilients dès le départ à la dérive des données, évitant ainsi le besoin de processus de réapprentissage approfondis.

Le professeur Lim a souligné l'importance de l'étude pour renforcer la résilience des modèles d'IA de séries chronologiques face à des environnements de données dynamiques, permettant ainsi des applications pratiques dans diverses industries. L'auteur principal, YongKyung Oh, a souligné le dévouement de l'équipe à faire progresser les technologies permettant de surveiller la dérive des données de séries chronologiques et de reconstruire les données, ouvrant ainsi la voie à une adoption généralisée par les entreprises coréennes.

Cette recherche a été reconnue comme l'un des 5 % des articles phares de la Conférence internationale sur les représentations d'apprentissage (ICLR), et elle représente une avancée potentiellement significative dans le domaine de l'IA et de la science des données.