De nouveaux outils de clonage de voix par IA "alimentent" le feu de la désinformation

Les deepfakes vocaux appellent – voici ce qu’ils sont et comment éviter de se faire arnaquer

Crédit : Pixabay/CC0 Domaine public

Vous venez de rentrer chez vous après une longue journée de travail et vous êtes sur le point de vous asseoir pour le dîner quand tout à coup votre téléphone se met à vibrer. À l’autre extrémité, un être cher, peut-être un parent, un enfant ou un ami d’enfance, vous supplie de lui envoyer de l’argent immédiatement.

Vous leur posez des questions en essayant de comprendre. Il y a quelque chose qui cloche dans leurs réponses, qui sont soit vagues soit hors de propos, et parfois il y a un retard particulier, presque comme s’ils réfléchissaient un peu trop lentement. Pourtant, vous êtes certain que c’est bien votre proche qui parle : c’est sa voix que vous entendez, et l’identification de l’appelant affiche son numéro. Soulignant l’étrangeté de leur panique, vous envoyez consciencieusement l’argent sur le compte bancaire qu’ils vous fournissent.

Le lendemain, vous les rappelez pour vous assurer que tout va bien. Votre proche ne sait pas de quoi vous parlez. C’est parce qu’ils ne vous ont jamais appelé – vous avez été trompé par la technologie : un deepfake de voix. Des milliers de personnes étaient arnaqué de cette façon en 2022.

Comme sécurité informatique des chercheursnous constatons que les progrès continus des algorithmes d’apprentissage en profondeur, de l’édition et de l’ingénierie audio et de la génération de voix synthétiques ont rendu de plus en plus possible simuler de manière convaincante la voix d’une personne.

Pire encore, les chatbots comme ChatGPT commencent à générer des scripts réalistes avec des réponses adaptatives en temps réel. Par combiner ces technologies avec la génération de voixun deepfake passe d’un enregistrement statique à un avatar vivant et réaliste qui peut avoir une conversation téléphonique de manière convaincante.

Cloner une voix

Créer un deepfake convaincant de haute qualité, qu’il s’agisse de vidéo ou d’audio, n’est pas la chose la plus facile à faire. Cela nécessite une richesse de compétences artistiques et techniques, un matériel puissant et un échantillon assez lourd de la voix cible.

Il existe un nombre croissant de services offerts aux produire des clones de voix de qualité moyenne à élevée moyennant des fraiset certains outils de contrefaçon vocale ont besoin d’un échantillon de seulement une minuteou même juste quelques secondes, pour produire un clone de voix qui pourrait être suffisamment convaincant pour tromper quelqu’un. Cependant, pour convaincre un être cher, par exemple, de l’utiliser dans une escroquerie d’usurpation d’identité, il faudrait probablement un échantillon beaucoup plus important.

Se protéger des escroqueries et de la désinformation

Cela dit, nous au Projet DeFake du Rochester Institute of Technology, de l’Université du Mississippi et de l’Université d’État du Michigan, et d’autres chercheurs travaillent dur pour pouvoir détecter les deepfakes vidéo et audio et limiter les dommages qu’ils causent. Il existe également des actions simples et quotidiennes que vous pouvez prendre pour vous protéger.

Pour commencer, hameçonnage vocal, ou « vishing », les escroqueries comme celle décrite ci-dessus sont les deepfakes vocaux les plus probables que vous pourriez rencontrer dans la vie de tous les jours, à la fois au travail et à la maison. En 2019, un une entreprise énergétique a été victime d’une escroquerie de 243 000 $ US lorsque des criminels ont simulé la voix du patron de sa société mère pour ordonner à un employé de transférer des fonds à un fournisseur. En 2022, les gens étaient escroqué sur environ 11 millions de dollars par des voix simulées, y compris des relations personnelles proches.

Que pouvez-vous faire?

Soyez attentif aux appels inattendus, même de la part de personnes que vous connaissez bien. Cela ne veut pas dire que vous devez planifier chaque appel, mais cela aide au moins à envoyer un e-mail ou un SMS à l’avance. Ne vous fiez pas non plus à l’identification de l’appelant, car ça peut aussi être truqué. Par exemple, si vous recevez un appel d’une personne prétendant représenter votre banque, raccrochez et appelez directement la banque pour confirmer la légitimité de l’appel. Assurez-vous d’utiliser le numéro que vous avez noté, enregistré dans votre liste de contacts ou que vous pouvez trouver sur Google.

De plus, soyez prudent avec vos informations d’identification personnelles, comme votre numéro de sécurité sociale, votre adresse personnelle, votre date de naissance, votre numéro de téléphone, votre deuxième prénom et même les noms de vos enfants et de vos animaux domestiques. Les escrocs peuvent utiliser ces informations pour se faire passer pour vous auprès des banques, des agents immobiliers et autres, s’enrichissant tout en vous mettant en faillite ou en détruisant votre crédit.

Voici un autre conseil : connais-toi toi-même. Plus précisément, connaissez vos préjugés et vos vulnérabilités intellectuelles et émotionnelles. C’est un bon conseil de vie en général, mais c’est essentiel pour se protéger d’être manipulé. Les escrocs cherchent généralement à démêler puis à exploiter vos angoisses financières, vos attachements politiques ou d’autres inclinations, quelles qu’elles soient.

Cette vigilance est également une défense décente contre la désinformation à l’aide de deepfakes vocaux. Les deepfakes peuvent être utilisés pour tirer parti de votre biais de confirmation ou de ce que vous êtes enclin à croire à propos de quelqu’un.

Si vous entendez une personne importante, que ce soit de votre communauté ou du gouvernement, dire quelque chose qui lui semble très inhabituel ou qui confirme vos pires soupçons à son égard, vous feriez mieux de vous méfier.

Fourni par La Conversation