Les systèmes de cyberdéfense cherchent à surpasser les criminels dans la course à l'IA

Les systèmes de cyberdéfense cherchent à surpasser les criminels dans la course à l’IA

Peu de temps après l’introduction de modèles d’intelligence artificielle générative comme ChatGPT avec la promesse d’augmenter la productivité économique, des escrocs ont lancé FraudGPT, qui se cache sur le dark web en promettant d’aider les criminels en élaborant une cyberattaque finement adaptée.

La société de cybersécurité Netenrich a identifié en juillet FraudGPT comme un « avatar méchant de ChatGPT » qui aide à créer des e-mails de spear phishing, fournit des outils pour casser les mots de passe et écrit des logiciels malveillants ou autres codes malveillants indétectables.

C’est ainsi que la course aux armements en matière d’IA était lancée.

Les entreprises adoptent des cyberdéfenses basées sur l’IA générative dans l’espoir de devancer l’utilisation d’outils similaires par les attaquants. Mais des efforts supplémentaires sont nécessaires, avertissent les experts, notamment pour protéger les données et les algorithmes derrière les modèles d’IA génératifs, de peur que les modèles eux-mêmes ne soient victimes de cyberattaques.

Ce mois-ci, IBM a publié les résultats d’une enquête menée auprès des dirigeants d’entreprise, dans laquelle 84 % des personnes interrogées ont déclaré qu’elles « donneraient la priorité aux solutions de sécurité génératives par IA plutôt qu’aux solutions conventionnelles » à des fins de cybersécurité. D’ici 2025, les dépenses de sécurité basées sur l’IA devraient être 116 % plus élevées qu’en 2021, selon l’enquête basée sur les réponses de 200 PDG, responsables de la sécurité et autres dirigeants d’entreprises basées aux États-Unis.

Les principaux législateurs sont déjà préoccupés par les dangers que l’IA peut représenter pour la cybersécurité.

Lors d’une audition de la commission sénatoriale du renseignement en septembre, le président Mark Warner, démocrate de Virginie, a déclaré que « les modèles génératifs peuvent améliorer la cybersécurité, en aidant les programmeurs à identifier les erreurs de codage et en contribuant à des pratiques de codage plus sûres… mais avec cet avantage potentiel, il y a aussi un inconvénient puisque ces mêmes modèles peuvent tout aussi bien aider les acteurs malveillants. »

Par ailleurs, l’Agence des Projets de Recherche Avancée de Défense du Pentagone a annoncé en août un concours pour concevoir des outils basés sur l’IA capables de corriger les bogues des logiciels couramment utilisés. Le concours, d’une durée de deux ans, vise à créer des systèmes capables de défendre automatiquement tout type de logiciel contre les attaques.

IBM a déclaré qu’il développait des solutions de cybersécurité basées sur des modèles d’IA génératifs pour « améliorer la vitesse, la précision et l’efficacité des capacités de détection et de réponse aux menaces et augmenter considérablement la productivité des équipes de sécurité ».

Détection des écarts

Darktrace, une société de cybersécurité ayant des bureaux aux États-Unis et dans le monde, déploie des modèles d’IA génératifs sur mesure à des fins de cybersécurité, a déclaré Marcus Fowler, vice-président senior de l’entreprise pour les engagements stratégiques et les menaces.

L’entreprise utilise l’IA pour prédire les attaques potentielles et concevoir des modèles d’IA exclusifs à auto-apprentissage qui observent et comprennent « le comportement de l’environnement dans lequel ils sont déployés », c’est-à-dire les modèles normaux d’utilisation d’un réseau informatique dans une entreprise ou un gouvernement. Il cartographie les activités des individus, des groupes de pairs et des cas aberrants, a déclaré Fowler, qui a auparavant travaillé à la CIA pour développer les cyber-opérations mondiales de l’agence.

Le système est alors capable de détecter « les écarts par rapport à la normale et de fournir un contexte pour ces écarts », permettant aux experts en sécurité d’agir, a-t-il expliqué.

La société a également développé des systèmes d’IA pour étudier la manière dont les experts en sécurité enquêtent sur une violation et créer « une capacité de tri autonome » qui automatise les 30 premières minutes environ d’une enquête, permettant aux responsables de la sécurité d’agir rapidement lorsqu’une attaque ou une violation est détectée. » dit Fowler.

En plus de détecter les anomalies et de faciliter les enquêtes sur une cyberattaque, les outils d’IA devraient être utiles pour analyser les logiciels malveillants afin de déterminer l’origine des attaquants, a déclaré Jose-Marie Griffiths, président de l’Université d’État du Dakota, qui a auparavant siégé à la Commission de sécurité nationale du Congrès. sur l’Intelligence Artificielle.

« L’ingénierie inverse d’un malware pour identifier qui l’a envoyé, quelle était son intention, est un domaine dans lequel nous n’avons pas vu beaucoup » d’utilisation d’outils d’IA, « mais nous pourrions potentiellement voir pas mal de travail, et c’est un domaine qui nous intéresse », a déclaré Griffiths, faisant référence aux travaux en cours de l’université.

Bien que les logiciels malveillants soient principalement du code logiciel, les pirates informatiques incluent souvent des notes dans leur propre langue, soit pour eux-mêmes, soit pour d’autres, sur la fonction d’une ligne particulière de code. Utiliser l’IA pour glaner de tels messages, en particulier ceux rédigés dans des langues autres que l’anglais, pourrait contribuer à affiner l’attribution, a déclaré Griffiths.

L’utilisation de modèles d’IA génératifs pour améliorer la cybersécurité prend de l’ampleur, mais les experts en sécurité doivent également veiller à protéger les modèles d’IA génératifs eux-mêmes, car des attaquants pourraient tenter de s’introduire dans les modèles et leurs données sous-jacentes, a déclaré Griffiths.

Une utilisation plus large de l’IA générative dans la cybersécurité pourrait contribuer à atténuer les problèmes chroniques auxquels sont confrontés les experts en sécurité, a déclaré John Dwyer, responsable de la recherche chez X-Force d’IBM, l’unité de cybersécurité de l’entreprise.

« La lassitude face aux alertes, la pénurie de talents et les problèmes de santé mentale sont en quelque sorte associés à la cybersécurité depuis longtemps », a déclaré Dwyer. « Et il s’avère que nous pouvons postuler [AI] technologies pour vraiment faire avancer les choses et aider à résoudre certains de ces problèmes fondamentaux auxquels tout le monde est confronté.

Les experts en cybersécurité sont épuisés par le fait d’être constamment en alerte, d’effectuer des tâches répétitives, de « passer au crible un tas de foin à la recherche d’une aiguille » et de quitter l’industrie ou d’être confrontés à des problèmes de santé mentale, a déclaré Dwyer.

L’utilisation de modèles d’IA pour se décharger de certaines de ces tâches répétitives pourrait alléger la charge de travail et permettre aux analystes de sécurité de se concentrer sur des tâches à grande valeur ajoutée, a déclaré Dwyer.

Comme pour toutes les avancées technologiques en ligne, les progrès dans les utilisations légitimes sur les parties du Web accessibles au public s’accompagnent souvent d’un « taux de croissance beaucoup plus rapide » dans le Web sous-marin ou le Web sombre, où opèrent les criminels et les pirates informatiques, a déclaré Griffiths. Dans le cas de l’IA générative, alors que les défenseurs se précipitent pour intégrer les outils de défense, les attaquants s’empressent d’utiliser les mêmes outils.

« C’est malheureusement le combat dans lequel nous nous trouvons », a-t-elle déclaré. « Ça va être constant. »