Ne croyez rien de ce que vous entendez, le "contrefaçons profondes" l'audio

il y a déjà des arnaques pour les personnes âgées avec des voix générées par l’IA

Ruth Card, 73 ans, a reçu un appel de son petit-fils Brandon. Du moins le pensait-elle, car la voix qui résonnait à l’autre bout du fil était exactement celle de son petit-fils. « Grand-mère, je suis en prison, sans portefeuille, sans téléphone », lui dit cette voix, plus ou moins submergée par ces mots. « J’ai besoin d’argent pour la caution. »

Ruth et son mari sont allés sans réfléchir à la banque pour retirer 3 000 dollars canadiens et en essayant de faire la même chose dans un autre bureau, le directeur de la banque a détecté qu’il se passait quelque chose d’étrange et leur a parlé : un autre client avait vécu la même chose et avait remarqué s’est rendu compte que la voix à l’autre bout n’était pas celle qu’elle était censée être. C’était une voix générée par un système d’intelligence artificielle. Un deepfake audio.

ils l’ont dit dans le Washington Post et ils ont mis en garde contre une nouvelle vague de fraude dans laquelle les voix générées par l’IA sont utilisées pour tromper et arnaquer toutes sortes de personnes, souvent des personnes âgées. Prétendre que les membres de leur famille ont des problèmes fonctionne souvent pour ces victimes.

Données FTC révéler qu’en 2022, ce type d’escroquerie dans laquelle quelqu’un se fait passer pour une autre personne était le deuxième plus fréquent, avec plus de 36 000 plaintes de personnes trompées (ou presque) par d’autres personnes se faisant passer pour des amis ou des parents. Les grosses arnaques avec ce type de système sont à l’ordre du jour : fin 2021 quelqu’un a réussi à voler 35 millions de dollars à une banque en utilisant cette technologie.

Avec la nouvelle génération de moteurs d’intelligence artificielle capables d’émuler n’importe quelle voix humaine moyennant un peu d’entraînement — Microsoft a présenté le puissant VALL-E il y a quelques semaines à peine — les choses se sont encore aggravées. Dans tous les cas, le système est essentiellement le même : un imposteur se fait passer pour quelqu’un en qui vous avez confiance — un enfant, un amant, un ami — et convainc la victime d’envoyer de l’argent parce qu’elle a de gros problèmes.

L’essentiel ici est que l’usurpation d’identité est beaucoup plus convaincante lorsque vous entendez la voix de cette personne vous parler de ce problème. C’est une voix artificiellement imitée, mais les progrès de l’IA – ces types de systèmes sont en développement depuis des années – rendent difficile la distinction, surtout lorsque la personne qui reçoit l’appel le fait avec ce ton d’urgence et d’inquiétude. Et pour les personnes âgées, moins informées sur ces avancées ou sur ce que cette technologie est capable de faire, cela devient une menace bien réelle.

Les voix n’ont même pas besoin d’être prises volontairement à quelqu’un : juste une vidéo YouTube, un podcast ou un clip sur TikTok, Instagram ou Facebook pour finir par générer une voix artificielle étonnamment crédible. À partir de là, le cybercriminel peut dire ce qu’il veut avec cette voix.

Aller après ces escrocs est particulièrement difficile. Will Maxson, de la division marketing de la FTC, a expliqué que ces criminels peuvent utiliser un téléphone n’importe où dans le monde et que cela complique des questions telles que la compétence sur chaque cas particulier.

Le conseil de cet organisme est clair : si vous recevez un appel d’un être cher qui vous demande de l’argent en urgence, essayez de mettre cet appel en attente et essayez d’appeler cette personne séparément. Le numéro peut ressembler au vôtre, mais les escrocs peuvent aussi s’être fait passer pour lui.

Il ne faut jamais donner d’argent sous forme de cartes-cadeaux car elles sont difficiles à contrôler, et bien sûr il faut être très attentif et ne pas se plier à ces demandes d’argent qui, surtout, sont généralement demandées en urgence.

Photo : Javier Pastor avec DALL-E 2