Pirates Chatgpt 13

Voici comment ils l’utilisent selon une étude de Microsoft et OpenAI

Ce n’était qu’une question de temps avant que les cybercriminels ne commencent à utiliser les outils de l’intelligence artificielle pour rendre leurs attaques plus efficaces. Ce n’est un secret pour personne que le acteurs malveillants Ils ont eu des difficultés lors de l’exécution de certaines de leurs campagnes. Parfois, le code utilisé était détecté par des systèmes antivirus et les courriers électroniques tentant de se faire passer pour des entreprises ou des organisations présentaient des défauts évidents aux utilisateurs.

Eh bien, selon Microsoft et OpenAI, cela évolue à différents niveaux. Les cybercriminels profitent des avantages des grands modèles de langage (LLM) tels que GPT-4 pour améliorer leurs techniques. Tout comme chacun d’entre nous peut utiliser des outils comme ChatGPT pour créer des textes dans différentes langues et même programmer plus facilement, les pirates peuvent les utiliser pour des activités illégales, mais avec le risque d’être découverts.

Des cybercriminels découverts

Les sociétés susmentionnées ont annoncé mercredi avoir détecté plusieurs groupes cybercriminels liés à la Russie, à la Corée du Nord, à l’Iran et à la Chine qui utilisaient leurs services pour un large éventail de tâches suspectes. Ces résultats font suite à des recherches approfondies visant à découvrir « les menaces émergentes à l’ère de l’intelligence artificielle ». Examinons quelques détails des groupes mentionnés par Microsoft et OpenAI dans leur étude.

Strontium. Il a été classé comme « acteur du renseignement militaire russe » qui promeut des attaques d’intérêt tactique et stratégique pour le gouvernement auxquelles il répond. On pense que cela est lié aux activités militaires en Ukraine. L’étude note que Strontium s’est tourné vers les modèles d’IA pour des tâches de base telles que l’automatisation et l’optimisation des opérations techniques, mais aussi pour des tâches plus avancées, telles que la compréhension des protocoles de communication par satellite et des technologies radar.

Grésil émeraude. Dans ce cas, nous parlons d’un groupe nord-coréen qui a utilisé LLM pour identifier les victimes et même trouver des vulnérabilités dans différents systèmes pour mener des attaques. L’une d’elles est la vulnérabilité CVE-2022-30190 dans un outil de support de Microsoft lui-même. De même, selon le rapport, ce groupe a utilisé des modèles d’IA pour améliorer la rédaction et la génération de contenus susceptibles d’être utilisés dans des campagnes de phishing.

Typhon de charbon de bois. Nous parlons ici d’un acteur malveillant lié au gouvernement chinois avec un large éventail d’objectifs qui incluent les secteurs du gouvernement, de la technologie, des infrastructures de communication et des infrastructures énergétiques. Comme les acteurs déjà mentionnés, ce groupe a utilisé des modèles d’IA pour mieux comprendre les technologies et les plateformes qui pourraient être utilisées pour mener des attaques. Il aurait également utilisé ces outils pour améliorer le code des logiciels malveillants, ainsi que pour les pratiques d’ingénierie sociale.

Tempête de sable pourpre. Enfin, nous avons un groupe que Microsoft et OpenAI considèrent comme lié au Corps des Gardiens de la révolution islamique (CGRI) et qui est actif depuis au moins 2017. Dans le passé, leurs attaques ont ciblé le transport maritime, la défense et les soins médicaux. L’une des pratiques les plus remarquables de ce groupe utilisant des modèles d’IA a été de les utiliser pour tenter d’échapper aux systèmes de sécurité de leurs victimes potentielles.

Bien qu’il s’agisse dans tous les cas d’acteurs malveillants qui semblent promouvoir des activités illégales depuis un certain temps, Microsoft et OpenAI soulignent qu’ils n’ont pas encore été en mesure de détecter une « attaque significative » spécifique utilisant LLM. Quoi qu’il en soit, les deux sociétés ont décidé de publier leurs recherches pour exposer tout type de mouvement dans sa phase initiale. De même, ils ont choisi de bloquer les comptes associés aux groupes susmentionnés.

NVIDIA nous réservait une surprise : son IA générative pour PC compatible avec les GeForce RTX 30 et 40 est là

Il convient de noter que ChatGPT, DALL·E et les autres produits OpenAI sont soumis à une politique d’utilisation qui prévoit des sanctions pour les utilisateurs qui commettent des violations. L’entreprise elle-même explique utiliser différentes méthodes pour évaluer les activités potentiellement suspectes. « La violation de nos politiques pourrait entraîner des mesures contre votre compte, pouvant aller jusqu’à la suspension ou l’annulation », indique la société sur la page des politiques d’utilisation mise à jour le 10 janvier.

Images : Jonathan Kemper | Markus Spiske

Vodafone

Si après avoir tant entendu parler Samsung Galaxy S24 avec intelligence artificielle Vous en aviez envie, n’attendez plus. Obtenez-le chez Vodafone. Que vous soyez client ou non, vous bénéficierez d’offres exclusives pour que le smartphone du moment soit à vous. Avant!

Conseils proposés par la marque

À Simseo : Nous avons demandé à trois experts en cybersécurité s’il était judicieux de payer pour un antivirus aujourd’hui. C’est ce qu’ils pensent

Dans Engadget : ChatGPT a désormais une mémoire et se souviendra de choses sur nous dans les futures conversations (si nous le souhaitons)