Un nouveau chatbot peut détecter les cyberattaques avant qu'elles ne commencent

Un nouveau chatbot peut détecter les cyberattaques avant qu'elles ne commencent

Des violations de données aux fermetures systémiques généralisées, les cyberattaques comme celle du comté de Fulton (Géorgie) en 2024 se produisent désormais aussi régulièrement que les catastrophes naturelles et causent tout autant de dégâts. Et, comme les phénomènes météorologiques violents, elles peuvent être prédites grâce à un nouvel outil d’intelligence artificielle (IA) qui analyse les réseaux sociaux pour déterminer qui pourrait être à l’origine de la prochaine grande cyberattaque.

Des chercheurs du Scheller College of Business de Georgia Tech, en collaboration avec des collègues de l'Université du District de Columbia, Washington, DC (UDC), ont développé un chatbot qui analysait les sentiments sur les sites de médias sociaux populaires comme X (anciennement connu sous le nom de Twitter) pour déterminer les cybermenaces.

Le chatbot a tweeté des informations pour interagir avec les utilisateurs de Twitter qui ont tweeté sur des événements d'actualité ou des vacances, ou qui ont retweeté des informations sur des cyberattaques. Il a interagi avec 100 000 utilisateurs sur une période de trois mois. Une analyse des sentiments, qui mesure les sentiments, les attitudes et les humeurs des utilisateurs, a été réalisée sur les réponses humaines aux tweets du bot. Les résultats sont publiés dans Durabilité.

L’analyse des sentiments appliquée aux interactions entre humains et chatbots n’est pas une nouveauté. Partout dans le monde, les entreprises utilisent des chatbots pour déterminer les réactions des clients aux marques et aux produits. Pendant la pandémie de COVID-19, les gouvernements et les organismes de santé ont eu recours à des chatbots pour déterminer les attitudes du public à l’égard des vaccinations, des mesures préventives et du port du masque. Cependant, l’identification des cybermenaces potentielles via l’analyse des sentiments représente une application unique et complexe.

« Lorsque vous examinez l'analyse des sentiments sur un chatbot à travers le prisme de la cybersécurité, vous recherchez des pirates informatiques potentiels », a déclaré John McIntyre, professeur à Scheller et directeur exécutif du Center for International Business Education and Research. « Il est difficile d'attraper des pirates informatiques à l'aide de l'analyse des sentiments, mais des modèles prédictifs peuvent être créés pour les trouver.

« L’IA peut cibler une population particulière pour comprendre ses expressions d’approbation, de désapprobation ou même son intention de nuire, d’attaquer ou de mal utiliser la technologie. »

Une équipe dirigée par McIntyre et les professeurs associés de l’UDC Amit Arora et Anshu Arora a mené cette recherche. Ils ont cherché à déterminer si les menaces de cybersécurité pouvaient être détectées via les médias sociaux, mais l’étude n’est que le début d’une méthode de prévention des cybermenaces potentiellement fertile. McIntyre pense que l’étude pourrait s’étendre à l’analyse des sentiments dans d’autres langues et même sur d’autres plateformes.

« À mesure que nous évoluons vers un monde où nous dépendrons de plus en plus des technologies de communication et des médias sociaux, les menaces vont se multiplier », a-t-il déclaré. « Nous devons savoir comment les contrer. »