Quelqu'un voulait savoir si GPT-4 était capable d'exploiter les vulnérabilités. Il l'a fait dans 87% des cas
Un groupe de chercheurs de l'Université de l'Illinois à Urbana-Champaign (UIUC) a publié une étude qui nous renseigne sur le potentiel de GPT-4 comme outil pour les cybercriminels. Et ce potentiel est énorme.
Vulnérabilités pour moi. Les LLM, soulignent ces chercheurs, sont devenus de plus en plus puissants pour les cas d’utilisation bénins et malveillants. Pour démontrer ce dernier point, ils ont collecté 15 vulnérabilités du premier jour, dont certaines classées comme critiques. GPT-4 a pu exploiter 87 % de ces vulnérabilités.
Ne vous attendez pas à le faire avec ChatGPT. Les performances spectaculaires de GPT-4 ont été comparées à celles de versions précédentes telles que GPT-3.5, la version utilisée par exemple dans ChatGPT, le chatbot gratuit d'OpenAI. Ce modèle, comme d'autres modèles Open Source tels que Mistral-7B, Llama-2 Chat (70B), Mixtral-8X7B Instruct ou OpenHermes-2.5, n'a résolu aucune vulnérabilité dans l'ensemble de test.
Claude 3 et Gémeaux, inconnus. Ce que l'on ne sait pas, c'est si ce « potentiel du mal » du GPT-4 est également présent dans d'autres modèles récents comme Claude 3 ou Gemini 1.5 Pro, qui n'ont pas été évalués car n'ayant pas eu accès auxdits modèles. Ils espèrent les tester à un moment donné, mais il est probable que les progrès des deux ont permis qu’ils puissent également servir à ce type d’objectif.
Des chatbots pour le mal. Ce même groupe de chercheurs a déjà montré par le passé comment les LLM pouvaient être utilisés pour automatiser des attaques sur des sites Web, du moins dans des environnements isolés. Daniel Kang, l'un des membres de l'équipe, a expliqué dans The Register comment GPT-4 peut « effectuer de manière autonome des étapes pour réaliser certains exploits que les scanners de vulnérabilités open source ne peuvent pas trouver ».
La sécurité dans l'obscurité. Sans fournir de détails supplémentaires sur la vulnérabilité, typique des Common Vulnerabilities and Exposures (CVE), les performances de GPT-4 ont chuté de 87 % à 7 %, soulevant la question de savoir s'il serait efficace de limiter les détails disponibles dans les CVE et pas les rendre publics. Pour Kang, cela n'aide pas beaucoup : « Personnellement, je ne pense pas que la sécurité par l'obscurité soit durable, ce qui semble être la philosophie prédominante parmi les chercheurs en sécurité. »
Coût minimum. Les chercheurs voulaient également voir quel serait le coût de calcul de l’utilisation d’un agent d’IA avec un modèle tel que GPT-4 pour créer un exploit basé sur un CVE, et leur conclusion a été très révélatrice. Le coût moyen par exploit était de 8,80 $, soit près de trois fois moins que ce qu'il en coûterait théoriquement pour embaucher un développeur humain du domaine du pentesting pour enquêter sur ces CVE et essayer de développer un CVE pendant 30 minutes.
Invites secrètes (pour l'instant). OpenAI, développeur de GPT-4, a demandé aux responsables de l'étude de ne pas révéler les invites utilisées pour l'expérience. L'agent de code utilisé comportait 91 lignes de code et une invite de 1 056 jetons. La demande a été respectée, mais les chercheurs indiquent dans l'étude qu'ils la proposeront à ceux qui en feront la demande. Ce qui n'est pas clair, c'est qu'ils continuent à travailler : chez OpenAI, ils ont probablement utilisé ces informations pour peaufiner leur chatbot et éviter ce type d'utilisation abusive.
Images | Ed Hardie
À Simseo | L’AI Pin a atteint ses premiers utilisateurs. Et leurs conclusions ne sont pas du tout encourageantes.