L'agent d'IA résout de manière autonome des défis de cybersécurité complexes à l'aide d'outils de texte
Les agents de l'intelligence artificielle – les systèmes AI qui peuvent fonctionner de manière indépendante vers des objectifs spécifiques sans guidage humain constant – ont démontré de fortes capacités de développement logiciel et de navigation sur le Web. Cependant, leur efficacité dans la cybersécurité est restée limitée.
Cela pourrait bientôt changer, grâce à une équipe de recherche de la NYU Tandon School of Engineering, de NYU Abu Dhabi et d'autres universités qui ont développé un agent d'IA capable de résoudre de manière autonome des défis de cybersécurité complexes.
Le système, appelé Enigma, a été présenté ce mois-ci à la Conférence internationale sur l'apprentissage automatique (ICML) 2025 à Vancouver, Canada.
« Enigma consiste à utiliser des agents de modèle de langue importants pour les applications de cybersécurité », a déclaré Meet Udeshi, un Ph.D. NYU Tandon. étudiant et co-auteur de la recherche. Udeshi est conseillé par Ramesh Karri, président du département d'ingénierie électrique et informatique de NYU Tandon (ECE) et membre du corps professoral du NYU Center for Cybersecurity et du NYU Center for Advanced Technology in Telecommunications (CATT), et par Farshad Khorrami, professeur de télécommunications ECE et membre de la faculté CATT. Karri et Khorrami sont co-auteurs sur le journal, Karri étant auteur principal.
Pour construire Enigma, les chercheurs ont commencé avec un cadre existant appelé Swe-Agent, qui a été initialement conçu pour les tâches d'ingénierie logicielle. Cependant, les défis de la cybersécurité nécessitaient des outils spécialisés qui n'existaient pas dans les systèmes d'IA précédents. « Nous devons restructurer ces interfaces pour le transmettre correctement dans un LLM. Nous l'avons donc fait pour quelques outils de cybersécurité », a expliqué Udeshi.
L'innovation clé était de développer ce qu'ils appellent des « outils d'agent interactifs » qui convertissent les programmes de cybersécurité visuelle en formats textuels que l'IA peut comprendre. Les outils de cybersécurité traditionnels comme les débogueurs et les analyseurs de réseau utilisent des interfaces graphiques avec des boutons cliquables, des écrans visuels et des éléments interactifs que les humains peuvent voir et manipuler.
« Les grands modèles de langage ne traitent que le texte, mais ces outils interactifs avec des interfaces utilisateur graphiques fonctionnent différemment, nous avons donc dû restructurer ces interfaces pour travailler avec LLMS », a déclaré Udeshi.
L'équipe a construit son propre ensemble de données en collectant et en structurant Capturez les défis du drapeau (CTF) spécifiquement pour les grands modèles de langage. Ces compétitions de cybersécurité gamifiées simulent les vulnérabilités du monde réel et ont traditionnellement été utilisées pour former des professionnels de la cybersécurité humaine.

« Les CTF sont comme une version gamifiée de la cybersécurité utilisée dans les compétitions académiques. Ce ne sont pas de vrais problèmes de cybersécurité auxquels vous rencontreriez dans le monde réel, mais ce sont de très bonnes simulations », a noté Udeshi.
Le co-auteur du papier Minghao Shao, un Ph.D. NYU Tandon. Student and Global Ph.D. Fellow à NYU Abu Dhabi, qui est conseillé par Karri et Muhammad Shafique, professeur de génie informatique à NYU Abu Dhabi et professeur de réseau mondial ECE à NYU Tandon, a décrit l'architecture technique: « Nous avons intégré notre propre ensemble de données de référence CTF et créé un système de chargement de données spécialisé pour alimenter ces défis dans le modèle. » ShaFique est également co-auteur sur le journal.
Le cadre comprend des invites spécialisées qui fournissent au modèle des instructions adaptées aux scénarios de cybersécurité.
Enigma a démontré des performances supérieures sur plusieurs repères. Le système a été testé sur 390 défis CTF à travers quatre repères différents, atteignant des résultats de pointe et résolvant plus de trois fois plus de défis que les agents d'IA précédents.
Au cours de la recherche menée il y a environ 12 mois, « Claude 3.5 Sonnet d'Anthropic était le meilleur modèle, et GPT-4O était deuxième à l'époque », selon Udeshi.
La recherche a également identifié un phénomène précédemment inconnu appelé «soliloque», où le modèle d'IA génère des observations hallucinées sans réellement interagir avec l'environnement, une découverte qui pourrait avoir des conséquences importantes pour la sécurité et la fiabilité de l'IA.
Au-delà de cette constatation technique, les applications potentielles s'étendent en dehors des compétitions universitaires. « Si vous pensez à un agent LLM autonome qui peut résoudre ces CTF, cet agent possède également des compétences de cybersécurité substantielles que vous pouvez également utiliser pour d'autres tâches de cybersécurité », a expliqué Udeshi. L'agent pourrait potentiellement être appliqué à l'évaluation de la vulnérabilité du monde réel, avec la capacité de « essayer des centaines d'approches différentes » de manière autonome.
Pour Udeshi, dont la recherche se concentre sur la sécurité des systèmes de contrôle industriel, le cadre ouvre de nouvelles possibilités pour sécuriser les systèmes robotiques et les systèmes de contrôle industriel. Shao voit des applications potentielles au-delà de la cybersécurité, notamment la génération de code quantique et la détection de vulnérabilité de conception de puces.
Les chercheurs reconnaissent la nature à double usage de leur technologie. Bien que Enigma puisse aider les professionnels de la sécurité à identifier et à réparer les vulnérabilités plus efficacement, il pourrait également être utilisé à mauvais escient à des fins malveillantes. L'équipe a informé des représentants des grandes sociétés d'IA, notamment Meta, Anthropic et OpenAI sur leurs résultats.
