Les agents IA ouvrent la porte à de nouvelles menaces de piratage
Les experts en cybersécurité préviennent que les agents d’intelligence artificielle, largement considérés comme la prochaine frontière de la révolution de l’IA générative, pourraient finir par être détournés et faire le sale boulot pour les pirates.
Les agents d'IA sont des programmes qui utilisent des chatbots d'intelligence artificielle pour effectuer le travail que les humains effectuent en ligne, comme acheter un billet d'avion ou ajouter des événements à un calendrier.
Mais la possibilité de commander des agents IA avec un langage simple permet même à ceux qui ne sont pas techniquement compétents de commettre des méfaits.
« Nous entrons dans une ère où la cybersécurité ne consiste plus à protéger les utilisateurs contre les mauvais acteurs dotés de compétences hautement techniques », a déclaré la startup d'IA Perplexity dans un article de blog.
« Pour la première fois depuis des décennies, nous constatons de nouveaux vecteurs d'attaque pouvant provenir de n'importe où. »
Ces attaques dites par injection ne sont pas nouvelles dans le monde des hackers, mais elles nécessitaient auparavant un code informatique intelligemment écrit et dissimulé pour causer des dommages.
Mais à mesure que les outils d’IA sont passés de la simple génération de texte, d’images ou de vidéos à des « agents » capables de parcourir Internet de manière indépendante, le risque qu’ils soient réquisitionnés par des invites glissées par des pirates informatiques s’est accru.
« Les gens doivent comprendre qu'il existe des dangers spécifiques en utilisant l'IA dans le sens de la sécurité », a déclaré l'ingénieur logiciel Marti Jorda Roca chez NeuralTrust, spécialisé dans la sécurité des grands modèles de langage.
Meta appelle cette menace d’injection de requêtes une « vulnérabilité ». Dane Stuckey, responsable de la sécurité de l'information chez OpenAI, l'a qualifié de « problème de sécurité non résolu ».
Les deux sociétés investissent des milliards de dollars dans l’IA, dont l’utilisation s’accroît rapidement parallèlement à ses capacités.
L'IA « hors piste »
L'injection de requêtes peut dans certains cas avoir lieu en temps réel lorsqu'une invite de l'utilisateur – « réservez-moi une réservation d'hôtel » – est transformée par un acteur hostile en autre chose – « virez 100 $ à ce compte ».
Mais ces invites néfastes peuvent également se cacher sur Internet lorsque les agents d’IA intégrés aux navigateurs rencontrent des données en ligne de qualité ou d’origine douteuse, et potentiellement piégées par des commandes cachées de pirates.
Eli Smadja de la société israélienne de cybersécurité Check Point considère l'injection de requêtes comme le « problème de sécurité numéro un » pour les grands modèles de langage qui alimentent les agents et assistants d'IA qui émergent rapidement de la révolution ChatGPT.
Les principaux concurrents du secteur de l’IA ont installé des défenses et publié des recommandations pour contrecarrer de telles cyberattaques.
Microsoft a intégré un outil pour détecter les commandes malveillantes en fonction de facteurs tels que l'origine des instructions destinées aux agents IA.
OpenAI alerte les utilisateurs lorsque des agents effectuant leurs enchères visitent des sites Web sensibles et bloque la poursuite jusqu'à ce que le logiciel soit supervisé en temps réel par l'utilisateur humain.
Certains professionnels de la sécurité suggèrent d'exiger que les agents IA obtiennent l'approbation des utilisateurs avant d'effectuer toute tâche importante, comme l'exportation de données ou l'accès à des comptes bancaires.
« Une énorme erreur que je constate souvent est de donner au même agent d'IA tout le pouvoir de tout faire », a déclaré Smadja à l'AFP.
Aux yeux du chercheur en cybersécurité Johann Rehberger, connu dans le secteur sous le nom de « wunderwuzzi », le plus grand défi réside dans l'amélioration rapide des attaques.
« Ils ne font que s'améliorer », a déclaré Rehberger à propos des tactiques des pirates informatiques.
Une partie du défi, selon le chercheur, consiste à trouver un équilibre entre sécurité et facilité d’utilisation, car les gens veulent pouvoir bénéficier de la commodité de l’IA qui fait les choses à leur place sans contrôles ni surveillance constants.
Rehberger soutient que les agents d’IA ne sont pas encore suffisamment matures pour pouvoir confier des missions ou des données importantes.
« Je ne pense pas que nous soyons dans une position où une IA agentique peut fonctionner pendant une longue période et accomplir une certaine tâche en toute sécurité », a déclaré le chercheur.
« Ça déraille. »
