L'IA menace d'aggraver la vague croissante de fraudes, mais contribue également à la combattre

L’IA menace d’aggraver la vague croissante de fraudes, mais contribue également à la combattre

Le gouvernement, les banques et d’autres organismes financiers font désormais face à la fraude en utilisant des méthodes de détection de plus en plus sophistiquées. Crédit : Maksim Shmeljov/Shutterstock

Il y a eu 4,5 millions d’incidents de fraude signalés au Royaume-Uni en 2021/22, en hausse de 25 % par rapport à l’année précédente. C’est un problème croissant qui coûte des milliards de livres chaque année.

La pandémie de COVID et la crise du coût de la vie ont créé des conditions idéales pour que les fraudeurs exploitent la vulnérabilité et le désespoir de nombreux ménages et entreprises. Et avec l’augmentation de l’utilisation de l’IA en général, nous assisterons probablement à une nouvelle augmentation des nouveaux types de fraude et contribuera probablement à l’augmentation de la fréquence des fraudes que nous constatons aujourd’hui.

Déjà, la capacité de l’IA à absorber des données personnelles, telles que des e-mails, des photographies, des vidéos et des enregistrements vocaux pour imiter les gens, s’avère être un défi nouveau et sans précédent.

Mais il y a aussi un avantage. Le gouvernement, les banques et d’autres organisations financières ripostent désormais avec des méthodes de détection des fraudes de plus en plus sophistiquées. Les modèles d’IA et d’apprentissage automatique pourraient faire partie de la solution pour faire face à la complexité, à la sophistication et à la prévalence croissantes de ces escroqueries.

L’écart croissant entre les prix et les revenus des gens semble avoir rendu les gens plus réceptifs aux escroqueries qui offrent des subventions, des rabais et des paiements de soutien.

Les fraudeurs ciblent souvent des individus en se faisant passer pour de véritables organisations. Par exemple, prétendre être votre banque ou se faire passer pour le gouvernement vous disant que vous êtes éligible à un stratagème lucratif, afin de voler vos informations d’identité, puis de l’argent.

Cela fait suite à une augmentation spectaculaire ces dernières années des demandes frauduleuses de programmes de soutien gouvernementaux et régionaux, principalement mis en œuvre en réponse à la pandémie. Ici, les fraudeurs se font souvent passer pour de fausses entreprises pour obtenir plusieurs prêts ou subventions.

L’un des exemples les plus farfelus de cela est un homme de Luton qui s’est fait passer pour une boulangerie Greggs pour escroquer trois autorités locales en Angleterre sur près de 200 000 £ de subventions aux petites entreprises COVID.

Le déploiement précipité de ces programmes pour un impact économique plus rapide a rendu difficile pour les fonctionnaires d’examiner efficacement les demandes. Le Département des affaires et du commerce du gouvernement britannique estime désormais que 11 % de ces prêts, soit environ 5 milliards de livres sterling, étaient frauduleux. En mars 2022, seuls 762 millions de livres sterling avaient été récupérés.

Détection de fraude

Au cours des dernières années, des modèles mathématiques complexes combinant des techniques statistiques traditionnelles et une analyse d’apprentissage automatique se sont révélés prometteurs dans la détection précoce de la fraude aux états financiers. C’est à ce moment-là que les entreprises déforment ou trompent les investisseurs en leur faisant croire qu’elles sont plus rentables qu’elles ne le sont réellement.

L’une des percées a été l’incorporation d’informations financières et non financières dans les systèmes d’analyse de données. Par exemple, le risque de fraude diminue s’il y a une meilleure gouvernance d’entreprise et une plus faible proportion d’administrateurs qui sont également des dirigeants.

Dans le contexte d’une petite entreprise, nous pouvons considérer cela comme la promotion de la transparence et la garantie que les postes importants n’ont pas le pouvoir exclusif de prendre des décisions importantes.

De tels modèles d’analyse de données peuvent être utilisés pour classer les applications en termes de risque de fraude potentiel, de sorte que les applications les plus risquées soient examinées davantage par les responsables gouvernementaux. Nous commençons maintenant à voir des implémentations de tels systèmes pour lutter contre la fraude universelle au crédit, par exemple.

Les banques, les prestataires de services financiers et les assureurs développent des modèles d’apprentissage automatique pour détecter également la fraude financière. Une enquête de la Banque d’Angleterre publiée en octobre 2022 a révélé que 72 % des entreprises de services financiers les testent et les mettent déjà en œuvre.

Nous assistons également à de nouvelles collaborations dans l’industrie, avec des sociétés comme Deutsche Bank qui s’associent au fabricant de puces Nvidia pour intégrer l’IA dans leurs systèmes de détection de fraude.

Risques des systèmes d’IA

Cependant, l’avènement de nouveaux systèmes d’IA automatisés entraîne des inquiétudes quant à d’éventuels biais involontaires en leur sein. Lors d’un récent essai d’un nouveau système de détection de fraude par IA par le ministère du Travail et des Pensions, les groupes de campagne s’inquiétaient des biais potentiels.

Un problème commun qui doit être surmonté avec de tels systèmes est qu’ils fonctionnent pour la majorité des gens, mais sont souvent biaisés contre les groupes minoritaires. Cela signifie que si elles ne sont pas ajustées, elles sont disproportionnellement plus susceptibles de signaler les candidatures des minorités ethniques comme risquées.

Mais les systèmes d’IA ne doivent pas être utilisés comme un processus entièrement automatisé pour détecter et accuser la fraude, mais plutôt comme un outil pour aider les évaluateurs. Ils peuvent aider les auditeurs et les fonctionnaires, par exemple, à identifier les cas nécessitant un examen plus approfondi et à réduire le temps de traitement.