ChatGPT est utilisé pour créer des logiciels malveillants et des attaques de phishing

ChatGPT est utilisé pour créer des logiciels malveillants et des attaques de phishing

OpenAI l'a confirmé. Au cours des dernières semaines, ses ingénieurs ont identifié plus de 20 cyberattaques orchestrées avec ChatGPT et d'autres outils de modèle de langage étendu (LLM). Les auteurs, selon les techniciens d'OpenAI, sont Chinois et iranien Ils ont trouvé un moyen d’utiliser ces outils d’intelligence artificielle (IA) pour développer, déboguer et mener d’autres activités malveillantes.

La première attaque menée avec ChatGPT a été planifiée par des militants chinois et a visé plusieurs gouvernements de pays asiatiques. Il est intéressant de noter que cette attaque a utilisé une stratégie connue sous le nom de « SweetSpecter ». Cette méthode utilise un fichier ZIP qui contient un fichier malveillant, de sorte que s'il est téléchargé et ouvert, il est capable d'infecter le système de l'utilisateur. Les ingénieurs OpenAI ont découvert que « SweetSpecter » avait été créé à l'aide de plusieurs comptes utilisant ChatGPT pour écrire le code et découvrir les vulnérabilités.

C'est l'autre facette de l'intelligence artificielle

La deuxième attaque optimisée pour l'IA a été menée par un groupe basé en Iran connu sous le nom de « CyberAv3ngers ». A cette occasion, cette organisation a utilisé ChatGPT pour exploiter des vulnérabilités et voler les mots de passe des utilisateurs d'ordinateurs équipés de macOS. Et le troisième a été planifié par un groupe connu sous le nom de « Storm-0817 », également basé en Iran. Cette fois, ils ont utilisé ChatGPT pour développer un logiciel malveillant pour Android capable de voler des listes de contacts, d'accéder aux journaux d'appels et à l'historique du navigateur.

Selon OpenAI, toutes les attaques auxquelles ChatGPT a participé ont été préparées selon des méthodes parfaitement connues

Selon OpenAI, toutes les attaques auxquelles ChatGPT a participé ont été menées selon des méthodes parfaitement connues, les Chinois et les Iraniens ne semblent donc pas avoir développé de méthodes originales. La conséquence la plus évidente de ces pratiques est qu’elles n’ont développé aucune variante de substantiellement nouveau. Cependant, le problème est que ces cyberattaques nous rappellent à quel point il est facile pour ceux qui ont un minimum de connaissances d’utiliser l’IA pour développer des logiciels malveillants dotés d’une capacité nuisible très importante.

OpenAI a confirmé qu'elle continuerait à améliorer sa technologie pour éviter qu'elle ne soit utilisée à des fins malveillantes. Cependant, entre-temps, elle a créé plusieurs équipes de travail spécialisées dans la sécurité et la protection qui partageront leurs découvertes avec d'autres entreprises et la communauté pour tenter d'empêcher que de telles cyberattaques ne se reproduisent. Quoi qu’il en soit, il est évident qu’OpenAI n’est pas le seul à devoir prendre ces mesures. D’autres entreprises possédant des modèles d’IA générative devraient suivre leurs traces dans ce domaine.

Images | Tima Miroshnichenko

Plus d'informations | OpenAI

À Simseo | La plus grande menace pour la cybersécurité de la Chine ne vient pas des États-Unis : ce sont les pirates informatiques indiens.