Un nouvel outil récupère les modèles d'apprentissage profond compromis afin que les chercheurs puissent comprendre ce qui n'a pas fonctionné

Un nouvel outil récupère les modèles d'apprentissage profond compromis afin que les chercheurs puissent comprendre ce qui n'a pas fonctionné

Imaginez-vous être passager dans une voiture autonome alors que le véhicule commence à quitter la route. Ce n’est pas un capteur défectueux qui est à l’origine de la situation dangereuse : c’est une cyberattaque. Les pirates peuvent accéder aux réseaux neuronaux d'apprentissage profond (DL) au cœur du système informatique du véhicule, compromettant la sécurité de ses passagers, ainsi que des autres conducteurs et piétons.

Pour mettre fin à de telles cyberattaques, il faut d’abord les comprendre, mais cela peut s’avérer difficile. La recherche du réseau neuronal profond exact d’un système informatique se heurte à de nombreux obstacles. Ils sont souvent exclusifs et donc inaccessibles aux enquêteurs sans une intervention juridique considérable. Un autre problème courant est qu’ils sont fréquemment mis à jour, ce qui rend difficile pour les chercheurs enquêteurs d’accéder à l’itération réseau la plus récente.

Mais un nouvel outil de Georgia Tech pourrait déverrouiller le mystérieux malware sur une myriade de réseaux neuronaux, depuis les voitures autonomes jusqu'à la base de données de divertissement IMDB. AI Psychiatry (AiP) est un outil médico-légal de cybersécurité post-mortem qui utilise l'intelligence artificielle pour récupérer les modèles exacts sur lesquels une machine compromise s'exécute et découvrir où l'erreur fatale s'est produite.

« Nous faisons confiance aux voitures autonomes pour nos vies et à ChatGPT pour nos carrières, mais lorsque ces systèmes échouent, comment allons-nous les enquêter ? » a déclaré Brendan Saltaformaggio, professeur agrégé avec des nominations conjointes à l'École de cybersécurité et de confidentialité et à l'École de génie électrique et informatique (ECE).

AiP peut récupérer le modèle DL original à la fois sur la mémoire du réseau local et sur l'unité de traitement graphique qui entraîne le réseau. Il peut accomplir cela sans aucune connaissance spécifique du framework, de la plateforme ou de la version du modèle. Au lieu de cela, il recrée le modèle en utilisant ce que Saltaformaggio appelle des « indices » ou des composants communs à tous les réseaux neuronaux.

Ceux-ci incluent les poids, les biais, les formes et les couches de l'image mémoire du modèle, un ensemble figé de bits et d'octets fonctionnant lorsque le modèle fonctionne normalement. L’image mémoire est cruciale car elle permet à AiP de la comparer avec le modèle post-attaque.

« Ces modèles affinent souvent leurs informations au fur et à mesure, en fonction de leur environnement actuel, de sorte qu'une attaque peut survenir à la suite d'un attaquant empoisonnant les informations qu'un modèle particulier apprend », a déclaré David Oygenblik, docteur en ECE. étudiant. « Nous avons déterminé qu'une image mémoire capturerait tous les changements qui se produisent au cours d'une exécution. »

Une fois le modèle récupéré, AiP peut l’exécuter sur un autre appareil, permettant ainsi aux enquêteurs de le tester minutieusement pour déterminer où se trouvent les défauts. AiP a été testé avec différentes versions de frameworks d'apprentissage automatique populaires (TensorFlow et PyTorch) et d'ensembles de données (CIFAR-10, LISA et IMDB). Il a réussi à récupérer et à réhéberger 30 modèles avec une précision de 100 %.

« Avant nos recherches, vous ne pouviez pas vous rendre sur les lieux du cybercrime et trouver des indices car il n'existait aucune technique disponible pour le faire », a déclaré Saltaformaggio. « C'est ce que nous expérimentons actuellement dans le laboratoire de cybercriminalité : des techniques permettant d'extraire ces preuves d'une scène de crime. »

Des outils comme AiP permettront aux cyber-enquêteurs d’avoir immédiatement une vue d’ensemble de la situation. Résoudre la cybercriminalité peut contribuer à en prévenir de futures, depuis la protection des données d'un utilisateur jusqu'au maintien d'une voiture sur la route.