La vulnérabilité des détecteurs de logiciels malveillants basés sur des transformateurs aux attaques adverses

La vulnérabilité des détecteurs de logiciels malveillants basés sur des transformateurs aux attaques adverses

Crédit : Jakhotiya, Patil et Rawlani.

Les cyber-attaquants proposent des techniques de plus en plus sophistiquées pour voler les informations sensibles des utilisateurs, crypter des documents pour recevoir une rançon ou endommager les systèmes informatiques. En conséquence, les informaticiens ont essayé de créer des techniques plus efficaces pour détecter et prévenir les cyberattaques.

De nombreux détecteurs de logiciels malveillants développés ces dernières années sont basés sur des algorithmes d’apprentissage automatique formés pour reconnaître automatiquement les modèles ou les signatures associés à des cyberattaques spécifiques. Bien que certains de ces algorithmes aient obtenu des résultats remarquables, ils sont généralement susceptibles d’attaques contradictoires.

Les attaques contradictoires se produisent lorsqu’un utilisateur malveillant perturbe ou modifie des données de manière subtile, pour s’assurer qu’elles sont mal classées par un algorithme d’apprentissage automatique. À la suite de ces perturbations subtiles, l’algorithme peut classer les logiciels malveillants comme s’il s’agissait de logiciels sûrs et normaux.

Des chercheurs du College of Engineering de Pune, en Inde, ont récemment mené une étude sur la vulnérabilité d’un détecteur de logiciels malveillants basé sur l’apprentissage en profondeur aux attaques adverses. Leur article, pré-publié sur arXiv, se concentre spécifiquement sur un détecteur basé sur des transformateurs, une classe de modèles d’apprentissage en profondeur qui peuvent peser différemment différentes parties des données d’entrée.

« De nombreux modèles basés sur l’apprentissage automatique ont été proposés pour détecter efficacement une grande variété de logiciels malveillants », ont écrit Yash Jakhotiya, Heramb Patil et Jugal Rawlani dans leur article.

« Beaucoup de ces modèles s’avèrent sensibles aux attaques contradictoires – des attaques qui fonctionnent en générant des entrées intentionnellement conçues qui peuvent forcer ces modèles à être mal classés. Notre travail vise à explorer les vulnérabilités des détecteurs de logiciels malveillants de pointe actuels face aux attaques contradictoires. »

Pour évaluer la vulnérabilité des détecteurs de logiciels malveillants basés sur l’apprentissage en profondeur aux attaques contradictoires, Jakhotiya, Patil et Rawlani ont développé leur propre système de détection de logiciels malveillants. Ce système comporte trois composants clés : un module d’assemblage, un module de fonctionnalités statiques et un module de réseau neuronal.

Le module d’assemblage est responsable du calcul des fonctionnalités du langage d’assemblage qui sont ensuite utilisées pour classer les données. En utilisant la même entrée envoyée au module d’assemblage, le module d’entités statiques produit deux ensembles de vecteurs qui seront également utilisés par pour classer les données.

Le modèle de réseau neuronal utilise les caractéristiques et les vecteurs produits par les deux modèles pour classer les fichiers et les logiciels. En fin de compte, son objectif est de déterminer si les fichiers et logiciels qu’il analyse sont bénins ou malveillants.

Les chercheurs ont testé leur détecteur de logiciels malveillants basé sur des transformateurs dans une série de tests, où ils ont évalué comment ses performances étaient affectées par des attaques adverses. Ils ont constaté qu’il était enclin à mal classer les données près d’une fois sur quatre.

« Nous formons un détecteur de logiciels malveillants basé sur Transformers, menons des attaques contradictoires entraînant un taux d’erreur de classification de 23,9 % et proposons des défenses qui réduisent ce taux d’erreur de classification de moitié », ont écrit Jakhotiya, Patil et Rawlani dans leur article.

Les découvertes récentes recueillies par cette équipe de chercheurs mettent en évidence la vulnérabilité des détecteurs de logiciels malveillants basés sur des transformateurs actuels aux attaques contradictoires. Sur la base de leurs observations, Jakhotiya, Patil et Rawlani proposent ainsi une série de stratégies de défense qui pourraient contribuer à augmenter la résilience des transformateurs formés pour détecter les logiciels malveillants contre les attaques adverses.

Ces stratégies incluent la formation des algorithmes sur des échantillons contradictoires, le masquage du gradient du modèle, la réduction du nombre de caractéristiques que les algorithmes examinent et le blocage de la soi-disant transférabilité des architectures neuronales. À l’avenir, ces stratégies et les conclusions générales publiées dans le récent article pourraient éclairer le développement de détecteurs de logiciels malveillants basés sur l’apprentissage en profondeur plus efficaces et plus fiables.