Ne croyez rien de ce que vous entendez, le "contrefaçons profondes" l'audio

Votre fille vous appelle, elle est en danger, elle vous demande des milliers d’euros immédiatement. À l’autre bout du téléphone se trouve une IA

Paddric Fitzgerald était au travail lorsqu’il a reçu un appel téléphonique d’un numéro qu’il ne connaissait pas. Lorsqu’ils le récupèrent, ils révèlent la terreur dans le Financial Times. « [Mi hija] Elle criait en arrière-plan en disant qu’ils allaient la couper pendant que j’étais en conversation. « J’allais leur donner tout ce que j’ai financièrement. »

Ce n’était pas sa fille, c’était une IA. À ce moment-là, et par hasard, il reçut un message normal de sa fille sur son téléphone. Cela lui a permis de découvrir que ce qu’il entendait n’était pas la voix de sa fille. Il s’agissait d’une voix générée par l’intelligence artificielle, et ce type de technique est devenu la nouvelle et terrifiante arnaque utilisée par les criminels.

Un outil dangereux. Il était inévitable que les progrès des modèles d’IA générative finissent par être utilisés à ce type d’objectifs. C’est précisément l’une des choses contre lesquelles Geoffrey Hinton, celui décrit comme le « parrain de l’IA », nous a mis en garde lorsqu’il a quitté Google et a exprimé son inquiétude sur des choses comme les deepfakes.

Cela ira plus loin. Ces escroqueries et fraudes se multiplient de plus en plus, même s’il est actuellement difficile de connaître l’impact réel de cette technologie sur ce type de délit. Alex West, consultant chez PwC, co-auteur des quelques études récentes sur le sujet, explique que « les escrocs connaissent déjà beaucoup de succès » et commencent peut-être seulement à utiliser cette technologie, « mais il est clair que les tentatives d’escroquerie vont augmenter ». escroqueries les plus sophistiquées.

Trois secondes de ta voix suffisent pour la cloner. La technique n’est pas nouvelle, et nous avons déjà vu comment un criminel l’a utilisée pour braquer une banque aux Émirats arabes unis en 2021, mais les progrès de ce type de systèmes ont rendu l’accès à ces outils et à leurs fonctionnalités encore plus spectaculaire. En février 2023, une étude scientifique menée par des chercheurs de Microsoft l’a démontré. Leur système, VALL-E, était capable de cloner des voix d’une qualité exceptionnelle avec seulement un échantillon de voix original de trois secondes.

Tout le monde peut accéder à ces outils. Des experts en génération de contenu via l’IA comme Henry Ajder – qui a conseillé des entreprises comme Meta ou Adobe – ont souligné comment l’IA a permis des progrès significatifs dans ce type d’arnaques au vol d’identité, mais aussi « la barrière à l’entrée est bien plus faible qu’elle ne l’était ». « 

Les plus de 70 ans, particulièrement vulnérables. Selon les données de la Federal Trade Commission citées dans le FT, les escroqueries ciblent particulièrement nos aînés, et les pertes moyennes sont d’autant plus élevées que les victimes sont âgées : les personnes de plus de 80 ans, par exemple, doublent les pertes subies par les personnes de 20 à 20 ans. 70. Ruth Card, 73 ans, et son mari, qui a failli tomber dans le piège il y a quelques mois, le savent bien.

Si votre fille vous appelle et est en danger, ne lui faites pas confiance. Que faire pour se protéger ? Même si c’est difficile dans des moments comme ceux-ci, il faut essayer de se méfier et de ne pas agir dans la précipitation. Appelez le numéro de ce membre de la famille ou de cet ami qui se dit en danger et essayez de le contacter par tous les moyens. C’est le moyen le plus sûr de savoir s’ils tentent de nous arnaquer.

Images | Devin Kaselnak

À Simseo | Les escroqueries visant à nous voler de l’argent sont de plus en plus élaborées. La question est : que font les banques à ce sujet ?