Les chercheurs créent un algorithme qui maximise la précision d'inférence des capteurs IoT à l'aide de l'informatique de pointe

Les chercheurs créent un algorithme qui maximise la précision d’inférence des capteurs IoT à l’aide de l’informatique de pointe

Crédit : Institut des réseaux IMDEA

Nous sommes dans une ère fascinante où même les appareils à faibles ressources, tels que les capteurs de l’Internet des objets (IoT), peuvent utiliser des algorithmes d’apprentissage en profondeur pour résoudre des problèmes complexes tels que la classification des images ou le traitement du langage naturel (la branche de l’intelligence artificielle qui s’occupe de donner ordinateurs la capacité de comprendre le langage parlé et écrit de la même manière que les humains).

Cependant, l’apprentissage en profondeur dans les capteurs IoT peut ne pas être en mesure de garantir les exigences de qualité de service (QoS) telles que la précision d’inférence et la latence. Avec la croissance exponentielle des données collectées par des milliards d’appareils IoT, le besoin s’est fait sentir de passer à un modèle distribué dans lequel une partie de l’informatique se produit à la périphérie du réseau (edge ​​computing), plus près de l’endroit où les données sont créées, plutôt que de l’envoyer dans le cloud pour traitement et stockage.

Les chercheurs d’IMDEA Networks Andrea Fresa (étudiant au doctorat) et Jaya Prakash Champati (professeur assistant de recherche) ont mené une étude dans laquelle ils ont présenté l’algorithme AMR², qui utilise l’infrastructure informatique de pointe (traitement, analyse et stockage des données plus proches à l’endroit où il est généré pour permettre une analyse et des réponses plus rapides et en temps quasi réel) pour augmenter la précision de l’inférence des capteurs IoT tout en respectant les contraintes de latence et ont montré que le problème est résolu. L’article « An Offloading Algorithm for Maximizing Inference Accuracy on Edge Device in an Edge Intelligence System » a été publié cette semaine lors de la conférence MSWiM.

Pour comprendre ce qu’est l’inférence, nous devons d’abord expliquer que l’apprentissage automatique fonctionne en deux phases principales. Le premier fait référence à la formation lorsque le développeur alimente son modèle avec un ensemble de données organisées afin qu’il puisse « apprendre » tout ce qu’il doit savoir sur le type de données qu’il va analyser. La phase suivante est l’inférence : le modèle peut faire des prédictions basées sur des données réelles pour produire des résultats exploitables.

Dans leur publication, les chercheurs ont conclu que la précision de l’inférence augmentait jusqu’à 40 % lors de la comparaison de l’algorithme AMR² avec des techniques d’ordonnancement de base. Ils ont également découvert qu’un algorithme de planification efficace est essentiel pour prendre en charge correctement les algorithmes d’apprentissage automatique à la périphérie du réseau.

« Les résultats de notre étude pourraient être extrêmement utiles pour les applications d’apprentissage automatique (ML) qui nécessitent une inférence rapide et précise sur les appareils finaux. Pensez à un service comme Google Photos, par exemple, qui catégorise les éléments d’image. Nous pouvons garantir le délai d’exécution en utilisant l’algorithme AMR², qui peut être très fructueux pour un développeur qui peut l’utiliser dans la conception pour s’assurer que les retards ne sont pas visibles pour l’utilisateur », explique Andrea Fresa.

Le principal obstacle qu’ils ont rencontré dans la conduite de cette étude est de démontrer les performances théoriques de l’algorithme AMR² et de le valider à l’aide d’un banc d’essai expérimental composé d’un Raspberry Pi et d’un serveur connecté via un LAN. « Pour démontrer les limites de performance d’AMR², nous avons utilisé des idées fondamentales issues de la programmation linéaire et des outils issus de la recherche opérationnelle », souligne Fresa.

Cependant, avec ce travail, les chercheurs d’IMDEA Networks ont jeté les bases de recherches futures qui permettront d’exécuter rapidement et avec précision des applications d’apprentissage automatique (ML) à la périphérie du réseau.


Fourni par IMDEA Networks Institute