Pouvez-vous faire confiance à vos oreilles ?  Les escroqueries vocales de l'IA secouent les États-Unis

Pouvez-vous faire confiance à vos oreilles ? Les escroqueries vocales de l’IA secouent les États-Unis

Les responsables américains avertissent que les fraudeurs utilisent des outils de clonage de voix IA convaincants pour duper les gens.

La voix au téléphone semblait effroyablement réelle – une mère américaine a entendu sa fille sangloter avant qu’un homme ne prenne le relais et ne demande une rançon. Mais la fille était un clone de l’IA et l’enlèvement était faux.

Selon les experts, le plus grand péril de l’intelligence artificielle est sa capacité à abattre les frontières entre la réalité et la fiction, offrant aux cybercriminels une technologie bon marché et efficace pour propager la désinformation.

Dans une nouvelle génération d’escroqueries qui a ébranlé les autorités américaines, les fraudeurs utilisent des outils de clonage de voix IA étonnamment convaincants, largement disponibles en ligne, pour voler des personnes en se faisant passer pour des membres de leur famille.

« Aide-moi, maman, aide-moi s’il te plaît », a entendu Jennifer DeStefano, une mère basée en Arizona, dire une voix à l’autre bout du fil.

DeStefano était « à 100% » convaincue que sa fille de 15 ans était en grande détresse lors d’un voyage de ski.

« Il n’a jamais été question de savoir qui est-ce? C’était complètement sa voix … c’était la façon dont elle aurait pleuré », a déclaré DeStefano à une chaîne de télévision locale en avril.

« Je n’ai jamais douté une seconde que c’était elle. »

L’escroc qui a repris l’appel, qui provenait d’un numéro inconnu de DeStefano, a exigé jusqu’à 1 million de dollars.

La ruse alimentée par l’IA s’est terminée en quelques minutes lorsque DeStefano a établi le contact avec sa fille. Mais l’affaire terrifiante, actuellement sous enquête policière, a souligné le potentiel des cybercriminels à abuser des clones d’IA.

Arnaque des grands-parents

« Le clonage de la voix de l’IA, désormais presque impossible à distinguer de la parole humaine, permet aux acteurs de la menace comme les escrocs d’extraire plus efficacement des informations et des fonds des victimes », a déclaré à l’AFP Wasim Khaled, directeur général de Blackbird.AI.

Une simple recherche sur Internet donne lieu à un large éventail d’applications, dont beaucoup sont disponibles gratuitement, pour créer des voix d’IA avec un petit échantillon – parfois seulement quelques secondes – de la vraie voix d’une personne qui peut être facilement volée à partir de contenu publié en ligne.

« Avec un petit échantillon audio, un clone de voix AI peut être utilisé pour laisser des messages vocaux et des textes vocaux. Il peut même être utilisé comme changeur de voix en direct lors d’appels téléphoniques », a déclaré Khaled.

« Les escrocs peuvent utiliser différents accents, genres ou même imiter les modèles de discours de leurs proches. [The technology] permet la création de deep fakes convaincants. »

Pouvez-vous faire confiance à vos oreilles ?  Les escroqueries vocales de l'IA secouent les États-Unis

Le plus grand danger de l’intelligence artificielle est sa capacité à brouiller les frontières entre la réalité et la fiction, disent les experts en technologie.

Dans une enquête mondiale menée auprès de 7 000 personnes de neuf pays, dont les États-Unis, une personne sur quatre a déclaré avoir été victime d’une escroquerie de clonage de voix par IA ou connaître quelqu’un qui l’a fait.

Soixante-dix pour cent des personnes interrogées ont déclaré qu’elles n’étaient pas convaincues de pouvoir « faire la différence entre une voix clonée et la vraie voix », a déclaré l’enquête, publiée le mois dernier par McAfee Labs, basé aux États-Unis.

Les responsables américains ont mis en garde contre une augmentation de ce que l’on appelle communément « l’arnaque des grands-parents » – où un imposteur se fait passer pour un petit-enfant ayant un besoin urgent d’argent dans une situation de détresse.

« Vous recevez un appel. Il y a une voix paniquée au bout du fil. C’est votre petit-fils. Il dit qu’il a de gros problèmes — il a détruit la voiture et a atterri en prison. Mais vous pouvez aider en envoyant de l’argent », a déclaré la Federal Trade Commission des États-Unis. dans un avertissement en mars.

« Cela lui ressemble. Comment cela pourrait-il être une arnaque? Du clonage de voix, c’est comme ça. »

Dans les commentaires sous l’avertissement de la FTC, il y avait plusieurs témoignages de personnes âgées qui avaient été dupées de cette façon.

‘Mal intentionné’

Cela reflète également l’expérience d’Eddie, un jeune de 19 ans à Chicago dont le grand-père a reçu un appel de quelqu’un qui lui ressemblait, affirmant qu’il avait besoin d’argent après un accident de voiture.

La ruse, rapportée par McAfee Labs, était si convaincante que son grand-père a commencé à rassembler de toute urgence de l’argent et a même envisagé de réhypothéquer sa maison, avant que le mensonge ne soit découvert.

« Parce qu’il est maintenant facile de générer des clones de voix très réalistes (…) presque toute personne présente en ligne est vulnérable à une attaque », a déclaré à l’AFP Hany Farid, professeur à l’UC Berkeley School of Information.

« Ces escroqueries gagnent du terrain et se répandent. »

Plus tôt cette année, la start-up d’intelligence artificielle ElevenLabs a admis que son outil de clonage de voix pouvait être utilisé à des « fins malveillantes » après que les utilisateurs aient publié un deepfake audio prétendant être l’actrice Emma Watson lisant la biographie d’Adolf Hitler « Mein Kampf ».

« Nous approchons rapidement du point où vous ne pouvez plus faire confiance aux choses que vous voyez sur Internet », a déclaré à l’AFP Gal Tal-Hochberg, directeur technique du groupe de la société de capital-risque Team8.

« Nous allons avoir besoin d’une nouvelle technologie pour savoir si la personne à qui vous pensez parler est réellement la personne à qui vous parlez », a-t-il déclaré.