Utiliser de fausses victimes créées par l'IA pour perturber le modèle commercial criminel

Utiliser de fausses victimes créées par l’IA pour perturber le modèle commercial criminel

Continuez à parler : le professeur Dali Kaafar, sur la photo, et l’équipe de cybersécurité espèrent que leurs nouveaux robots anti-arnaques garderont les escrocs en ligne jusqu’à 40 minutes et aideront également à identifier les dernières escroqueries téléphoniques afin que les banques puissent avertir les clients. Crédit : Université Macquarie

Les experts en cybersécurité de l’Université Macquarie ont inventé un chatbot multilingue conçu pour empêcher les escrocs de passer de longs faux appels et, en fin de compte, réduire le nombre considérable de personnes qui perdent chaque jour de l’argent au profit de criminels mondiaux.

Un nouveau système basé sur l’IA a créé de fausses victimes convaincantes sous la forme de chatbots multilingues qui font perdre du temps aux appelants frauduleux, dans le but de réduire les 55 milliards de dollars que les gens perdent chaque année à cause des voleurs.

Nommé Apate, d’après la déesse grecque de la tromperie, le système « arnaquera les escrocs », en utilisant des clones de voix convaincants pour mener des conversations avec de vrais escrocs.

« Les escroqueries téléphoniques sont menées par des groupes criminels organisés et actuellement, seule une infime fraction des criminels est attrapée, et l’argent est rarement récupéré », déclare le professeur Dali Kaafar, directeur exécutif du Cyber ​​Security Hub de l’Université Macquarie.

L’idée est venue au professeur Kaafar alors qu’il déjeunait avec sa famille, lorsqu’un escroc a appelé. Il a fait semblant de divertir, faisant rire ses enfants et gardant l’escroc en ligne pendant 40 minutes.

« J’ai réalisé que, même si j’avais fait perdre du temps à l’escroc pour qu’il ne puisse pas atteindre les personnes vulnérables, ce qui était le but, c’était aussi 40 minutes de ma propre vie que je ne récupérerais pas », déclare le professeur Dali.

« Ensuite, j’ai commencé à réfléchir à la manière dont nous pourrions automatiser l’ensemble du processus et utiliser le traitement du langage naturel pour développer un chatbot informatisé qui pourrait avoir une conversation crédible avec l’escroc », dit-il.

Le professeur Kaafar dit que son équipe a maintenant des brevets en instance pour cette technologie très efficace.

« Nous sommes enthousiasmés par le potentiel de cette nouvelle technologie pour briser activement le modèle commercial des appels frauduleux et le rendre non rentable », a-t-il déclaré.

Le commerce mondial extrêmement lucratif des escroqueries par téléphone augmente chaque année, et l’ACCC estime que les Australiens ont perdu plus de 3,1 milliards de dollars à cause des escrocs en 2022.

Gratter les profits faciles

Selon le professeur Kaafar, bien que les fournisseurs de télécommunications aient bloqué plus d’un demi-milliard d’appels frauduleux depuis 2020, les Australiens sont toujours inondés de ces appels – et la minuscule fraction qui passe peut faire des ravages sur les victimes.

Les escroqueries par téléphone sont en augmentation dans le monde pour plusieurs raisons, dit-il.

Une technologie comme le protocole voix sur Internet (VOIP) permet aux cybercriminels de masquer facilement et à peu de frais leur emplacement, en faisant semblant d’appeler depuis n’importe quel numéro.

Pendant ce temps, sur le plan technologique, il est difficile et coûteux de mettre à jour l’infrastructure et les protocoles de télécommunications pour améliorer l’authentification des appels.

« Financièrement, c’est un ratio à gain élevé et à faible coût pour les escrocs, la pratique est très lucrative et une activité criminelle à relativement faible risque – et il est assez difficile pour les victimes de récupérer cet argent. »

Ces conditions attirent un nombre croissant d’escrocs qui se spécialisent dans le jeu sur les émotions et les peurs humaines.

« Le modèle commercial des escrocs repose sur la réalisation d’un gros profit sur un petit nombre de victimes ; seul un petit pourcentage des milliers d’appels qu’ils passent chaque semaine réussissent », explique le professeur Kaafar.

« Notre modèle les immobilise, leur fait perdre du temps et réduit le nombre d’escroqueries réussies », dit-il. « Nous pouvons perturber leur modèle commercial et rendre beaucoup plus difficile pour eux de gagner de l’argent. »

Comment l’APATE a été créée

L’équipe du centre de cybersécurité de l’Université Macquarie a commencé par analyser les appels téléphoniques frauduleux et à identifier les techniques d’ingénierie sociale que les escrocs utilisent sur leurs victimes, en utilisant des techniques d’apprentissage automatique et le traitement du langage naturel pour identifier les « scripts » d’escroquerie typiques.

Ils ont ensuite formé des chatbots sur un ensemble de données de conversations frauduleuses dans le monde réel, allant d’enregistrements d’appels frauduleux à des transcriptions d’e-mails frauduleux, et des journaux de discussion à partir de plateformes de médias sociaux afin que le bot puisse générer ses propres conversations ressemblant à celles d’appels frauduleux dans le monde réel.

Le professeur Kaafar affirme que les progrès du traitement du langage naturel (PNL) et du clonage de la voix humaine par IA leur ont permis de développer des agents d’IA capables de parler couramment, et peuvent adopter un personnage particulier et rester sur la bonne voie dans une conversation, en étant d’une cohérence convaincante dans leurs réponses. .

« Les bots d’IA conversationnels que nous avons développés peuvent tromper les escrocs en leur faisant croire qu’ils parlent à des victimes d’arnaques viables, alors ils passent du temps à essayer d’arnaquer les bots », explique le professeur Kaafar.

Ces bots peuvent être formés dans n’importe quelle langue ou accent et parce que les escroqueries par téléphone sont un défi mondial, cette technologie peut être déployée partout dans le monde.

Essais d’appels frauduleux en direct

L’équipe teste actuellement les chatbots sur des appels frauduleux en direct, redirigeant les appels destinés aux victimes vers leur prototype de test, un « pot de miel toujours actif » avec un large éventail de personnages.

« Nous avons mis ces numéros « sales » partout sur Internet, les introduisant dans certaines applications de spam, ou les publiant sur des pages Web, etc., pour les rendre plus susceptibles de recevoir des appels frauduleux », déclare le professeur Kaafar.

« Nous avons constaté que les bots réagissaient assez bien à certaines situations délicates auxquelles nous ne nous attendions pas à nous en sortir, les escrocs demandant des informations pour lesquelles nous n’avions pas formé les bots, mais les bots s’adaptent et proposent des réponses très crédibles. .

« Les bots apprennent continuellement à faire glisser les appels pour atteindre leur objectif principal : garder les escrocs en ligne plus longtemps. »

Le déploiement actuel des bots Apate dure déjà en moyenne cinq minutes, et l’objectif est de les amener à 40 minutes.

Les robots anti-escroquerie contribuent également à la veille sur les menaces, c’est-à-dire des informations opportunes qui sont recueillies sur les escroqueries téléphoniques actuelles et leurs cibles ; cela aide les organisations telles que les grandes banques, les détaillants et les organismes gouvernementaux à avertir les clients.

Le professeur Kaafar dit que l’équipe est en conversation avec un certain nombre de fournisseurs de télécommunications et dit qu’ils sont ouverts à un certain nombre de partenariats commerciaux.

« Le partenariat avec les fournisseurs de communications sera la clé pour rendre cela vraiment efficace », déclare le professeur Kaafar.

« Nous voyons cela comme ayant un énorme potentiel à l’échelle mondiale ; si nous pouvons rediriger bon nombre de ces appels de spam que les fournisseurs bloquent actuellement et envoyer les escrocs aux robots Apate, en monopolisant leur temps autant que possible, l’ensemble de l’industrie ne sera plus viable.

« Je suggère que le méta-scénario ultime pourrait voir les escrocs adopter eux-mêmes l’IA, former leurs propres chatbots frauduleux, qui sont ensuite détournés pour parler aux chatbots appartenant aux fournisseurs de télécommunications.

« Si des chatbots frauduleux finissent par parler à des chatbots qui défendent les arnaques au lieu de voler de l’argent à de vraies personnes, je considérerais cela comme une grande victoire. »