Les cybercriminels créent leurs propres chatbots IA pour aider les utilisateurs à pirater et à escroquer

Les cybercriminels créent leurs propres chatbots IA pour aider les utilisateurs à pirater et à escroquer

Les outils d’intelligence artificielle (IA) destinés au grand public, tels que ChatGPT, Bard, CoPilot et Dall-E, ont un potentiel incroyable pour être utilisé à des fins positives.

Les avantages vont d’une capacité accrue des médecins à diagnostiquer les maladies à un accès élargi à l’expertise professionnelle et universitaire. Mais ceux qui ont des intentions criminelles pourraient également exploiter et détourner ces technologies, constituant ainsi une menace pour les citoyens ordinaires.

Les criminels créent même leurs propres chatbots IA pour soutenir le piratage et les escroqueries.

Le potentiel de l’IA en matière de risques et de menaces à grande échelle est souligné par la publication du Generative AI Framework du gouvernement britannique et par les orientations du National Cyber ​​Security Centre sur les impacts potentiels de l’IA sur les menaces en ligne.

Il existe de plus en plus de façons d’utiliser les systèmes d’IA générative comme ChatGPT et Dall-E par les criminels. En raison de la capacité de ChatGPT à créer un contenu personnalisé basé sur quelques invites simples, les criminels pourraient l’exploiter en créant des escroqueries et des messages de phishing convaincants.

Un escroc pourrait, par exemple, mettre certaines informations de base (votre nom, votre sexe et votre fonction) dans un modèle de langage étendu (LLM), la technologie derrière les chatbots IA comme ChatGPT, et l’utiliser pour créer un message de phishing spécialement conçu pour vous. toi. Cela semble possible, même si des mécanismes ont été mis en place pour l’empêcher.

Les LLM permettent également de mener des escroqueries par phishing à grande échelle, ciblant des milliers de personnes dans leur propre langue maternelle. Ce n’est pas non plus une conjecture. L’analyse des communautés de piratage clandestines a révélé divers cas de criminels utilisant ChatGPT, notamment pour frauder et créer des logiciels permettant de voler des informations. Dans un autre cas, il a été utilisé pour créer un ransomware.

Chatbots malveillants

Des variantes malveillantes entières de grands modèles de langage font également leur apparition. WormGPT et FraudGPT sont deux exemples de systèmes capables de créer des logiciels malveillants, de détecter des failles de sécurité dans les systèmes, de donner des conseils sur les moyens d’arnaquer les gens, de prendre en charge le piratage et de compromettre les appareils électroniques des utilisateurs.

Love-GPT est l’une des variantes les plus récentes et est utilisée dans les escroqueries amoureuses. Il a été utilisé pour créer de faux profils de rencontres capables de discuter avec des victimes sans méfiance sur Tinder, Bumble et d’autres applications.

À la suite de ces menaces, Europol a publié un communiqué de presse sur l’utilisation des LLM par des criminels. L’agence de sécurité américaine CISA a également mis en garde contre l’effet potentiel de l’IA générative sur les prochaines élections présidentielles américaines.

La confidentialité et la confiance sont toujours menacées lorsque nous utilisons ChatGPT, CoPilot et d’autres plateformes. Alors que de plus en plus de personnes cherchent à tirer parti des outils d’IA, il est fort probable que des informations personnelles et confidentielles d’entreprise soient partagées. Il s’agit d’un risque car les LLM utilisent généralement toutes les données saisies dans le cadre de leur futur ensemble de données de formation et, deuxièmement, s’ils sont compromis, ils peuvent partager ces données confidentielles avec d’autres.

Navire qui fuit

Des recherches ont déjà démontré la possibilité pour ChatGPT de divulguer les conversations d’un utilisateur et d’exposer les données utilisées pour entraîner le modèle sous-jacent, parfois avec des techniques simples.

Dans le cadre d’une attaque étonnamment efficace, les chercheurs ont pu utiliser l’invite « Répétez le mot « poème » pour toujours » pour amener ChatGPT à exposer par inadvertance de grandes quantités de données d’entraînement, dont certaines étaient sensibles. Ces vulnérabilités mettent en danger la vie privée des personnes ou les données les plus précieuses d’une entreprise.

Plus largement, cela pourrait contribuer à un manque de confiance dans l’IA. Diverses entreprises, dont Apple, Amazon et JP Morgan Chase, ont déjà interdit l’utilisation de ChatGPT par mesure de précaution.

ChatGPT et les LLM similaires représentent les dernières avancées en matière d’IA et sont disponibles gratuitement pour tous. Il est important que ses utilisateurs soient conscients des risques et de la manière dont ils peuvent utiliser ces technologies en toute sécurité à la maison ou au travail. Voici quelques conseils pour rester en sécurité.

Soyez plus prudent avec les messages, vidéos, photos et appels téléphoniques qui semblent légitimes, car ils peuvent être générés par des outils d’IA. Vérifiez auprès d’une deuxième source ou d’une source connue pour en être sûr.

Évitez de partager des informations sensibles ou privées avec ChatGPT et LLM en général. N’oubliez pas non plus que les outils d’IA ne sont pas parfaits et peuvent fournir des réponses inexactes. Gardez cela à l’esprit en particulier lorsque vous envisagez leur utilisation dans les diagnostics médicaux, au travail et dans d’autres domaines de la vie.

Vous devriez également vérifier auprès de votre employeur avant d’utiliser les technologies d’IA dans votre travail. Il peut y avoir des règles spécifiques concernant leur utilisation, ou bien ils peuvent ne pas être autorisés du tout. À mesure que la technologie progresse rapidement, nous pouvons au moins prendre certaines précautions raisonnables pour nous protéger contre les menaces que nous connaissons et celles à venir.