Microsoft affirme que ses rivaux américains commencent à utiliser l'IA générative dans leurs cyberopérations offensives

Microsoft affirme que ses rivaux américains commencent à utiliser l’IA générative dans leurs cyberopérations offensives

Microsoft a déclaré mercredi que les adversaires américains – principalement l’Iran et la Corée du Nord et, dans une moindre mesure, la Russie et la Chine – commençaient à utiliser son intelligence artificielle générative pour monter ou organiser des cyber-opérations offensives.

Le géant de la technologie et son partenaire commercial OpenAI ont déclaré qu’ils avaient conjointement détecté et perturbé l’utilisation par les cyber-acteurs malveillants de leurs technologies d’IA, en fermant leurs comptes.

Dans un article de blog, Microsoft a déclaré que les techniques utilisées étaient « à un stade précoce » et ni « particulièrement nouvelles ou uniques », mais qu’il était important de les exposer publiquement alors que les adversaires américains exploitent des modèles à langage étendu pour étendre leur capacité à pénétrer dans les réseaux et à exercer leur influence. opérations.

Les entreprises de cybersécurité utilisent depuis longtemps l’apprentissage automatique pour leur défense, principalement pour détecter les comportements anormaux dans les réseaux. Mais les criminels et les pirates informatiques offensifs l’utilisent également, et l’introduction de modèles en grand langage dirigés par ChatGPT d’OpenAI a amélioré ce jeu du chat et de la souris.

Microsoft a investi des milliards de dollars dans OpenAI, et l’annonce de mercredi a coïncidé avec la publication d’un rapport indiquant que l’IA générative devrait améliorer l’ingénierie sociale malveillante, conduisant à des deepfakes et au clonage vocal plus sophistiqués. Une menace pour la démocratie dans une année où plus de 50 pays organiseront des élections, amplifiant la désinformation et qui se produit déjà,

Voici quelques exemples fournis par Microsoft. Dans chaque cas, il indique que tous les comptes et actifs d’IA générative des groupes nommés ont été désactivés :

—Le groupe de cyberespionnage nord-coréen connu sous le nom de Kimsuky a utilisé ces modèles pour rechercher des groupes de réflexion étrangers qui étudient le pays et pour générer du contenu susceptible d’être utilisé dans des campagnes de piratage par spear phishing.

— Les Gardiens de la révolution iraniens ont utilisé des modèles en langage large pour contribuer à l’ingénierie sociale, au dépannage des erreurs logicielles et même à l’étude de la manière dont les intrus pourraient échapper à la détection dans un réseau compromis. Cela inclut la génération d’e-mails de phishing « dont un prétendant provenir d’une agence de développement international et un autre tentant d’attirer d’éminentes féministes vers un site Web sur le féminisme créé par un attaquant ». L’IA permet d’accélérer et de booster la production d’e-mails.

— L’unité de renseignement militaire russe du GRU, connue sous le nom de Fancy Bear, a utilisé ces modèles pour rechercher des technologies satellitaires et radar susceptibles d’être liées à la guerre en Ukraine.

— Le groupe de cyberespionnage chinois connu sous le nom d’Aquatic Panda, qui cible un large éventail d’industries, d’enseignement supérieur et de gouvernements, de la France à la Malaisie, a interagi avec les modèles « d’une manière qui suggère une exploration limitée de la manière dont les LLM peuvent augmenter leurs opérations techniques ».

—Le groupe chinois Maverick Panda, qui cible les sous-traitants américains de la défense entre autres secteurs depuis plus d’une décennie, a eu des interactions avec des modèles en langage large suggérant qu’il évaluait leur efficacité en tant que source d’informations « sur des sujets potentiellement sensibles, des individus de haut niveau, géopolitique régionale, influence américaine et affaires intérieures.

Dans un autre blog publié mercredi, OpenAI a déclaré que son chatbot modèle GPT-4 actuel n’offre « que des capacités incrémentielles limitées pour les tâches de cybersécurité malveillantes, au-delà de ce qui est déjà réalisable avec des outils accessibles au public et non alimentés par l’IA ».

Les chercheurs en cybersécurité s’attendent à ce que cela change.

En avril dernier, la directrice de l’Agence américaine de cybersécurité et de sécurité des infrastructures, Jen Easterly, a déclaré au Congrès qu’« il existe deux menaces et défis qui définissent notre époque. L’un est la Chine et l’autre l’intelligence artificielle ».

Easterly avait déclaré à l’époque que les États-Unis devaient garantir que l’IA était conçue dans un souci de sécurité.

Les critiques de la sortie publique de ChatGPT en novembre 2022 – et des versions ultérieures de concurrents, notamment Google et Meta – affirment qu’elle était irresponsable et précipitée, considérant que la sécurité était en grande partie une réflexion après coup dans leur développement.

« Bien sûr, les mauvais acteurs utilisent des modèles en langage large – cette décision a été prise lors de l’ouverture de la boîte de Pandore », a déclaré Amit Yoran, PDG de la société de cybersécurité Tenable.

Certains professionnels de la cybersécurité se plaignent de la création et de la vente par Microsoft d’outils destinés à remédier aux vulnérabilités des modèles à langage étendu, alors qu’elle pourrait se concentrer de manière plus responsable sur leur sécurité.

« Pourquoi ne pas créer des modèles de fondation LLM en boîte noire plus sécurisés au lieu de vendre des outils défensifs pour un problème qu’ils contribuent à créer ? » » a demandé Gary McGraw, vétéran de la sécurité informatique et co-fondateur du Berryville Institute of Machine Learning.

Edward Amoroso, professeur à l’Université de New York et ancien responsable de la sécurité d’AT&T, a déclaré que même si l’utilisation de l’IA et des modèles à grand langage ne constitue pas une menace immédiatement évidente, ils « finiront par devenir l’une des armes les plus puissantes dans l’offensive de chaque armée d’un État-nation ».