Les dangers du clonage vocal et comment le combattre
par Leo SF Lin, Duane Aslett, Geberew Tulu Mekonnen et Mladen Zecevic, The Conversation
Le développement rapide de l’intelligence artificielle (IA) comporte à la fois des avantages et des risques.
Une tendance inquiétante est l’utilisation abusive du clonage vocal. En quelques secondes, les fraudeurs peuvent cloner une voix et faire croire aux gens qu’un ami ou un membre de leur famille a un besoin urgent d’argent.
Les médias, dont CNN, préviennent que ces types d’escroqueries peuvent potentiellement toucher des millions de personnes.
Alors que la technologie permet aux criminels d’envahir plus facilement nos espaces personnels, il est plus important que jamais de rester prudent quant à son utilisation.
Qu’est-ce que le clonage vocal ?
L’essor de l’IA a créé des possibilités en matière de génération d’images, de textes, de voix et d’apprentissage automatique.
Si l’IA offre de nombreux avantages, elle offre également aux fraudeurs de nouvelles méthodes pour exploiter les individus à des fins financières.
Vous avez peut-être entendu parler des « deepfakes », où l’IA est utilisée pour créer de fausses images, vidéos et même audio, impliquant souvent des célébrités ou des politiciens.
Le clonage vocal, un type de technologie deepfake, crée une réplique numérique de la voix d'une personne en capturant ses schémas de parole, son accent et sa respiration à partir de brefs échantillons audio.
Une fois le modèle de parole capturé, un générateur vocal IA peut convertir la saisie de texte en un discours très réaliste ressemblant à la voix de la personne ciblée.
Grâce aux avancées technologiques, le clonage vocal peut être réalisé avec seulement un échantillon audio de trois secondes.
Alors qu'une simple phrase comme « Bonjour, il y a quelqu'un ? » peut conduire à une escroquerie par clonage vocal, une conversation plus longue aide les escrocs à capturer plus de détails vocaux. Il est donc préférable de garder les appels brefs jusqu'à ce que vous soyez sûr de l'identité de l'appelant.
Le clonage vocal a des applications précieuses dans le domaine du divertissement et des soins de santé : il permet aux artistes de travailler à distance (même à titre posthume) et d'aider les personnes souffrant de troubles de la parole.
Cependant, cela soulève de graves problèmes de confidentialité et de sécurité, soulignant la nécessité de mesures de protection.
Comment il est exploité par des criminels
Les cybercriminels exploitent la technologie de clonage vocal pour se faire passer pour des célébrités, des autorités ou des personnes ordinaires à des fins frauduleuses.
Ils créent une urgence, gagnent la confiance de la victime et demandent de l'argent via des cartes cadeaux, des virements électroniques ou des cryptomonnaies.
Le processus commence par la collecte d’échantillons audio provenant de sources telles que YouTube et TikTok.
Ensuite, la technologie analyse l'audio pour générer de nouveaux enregistrements.
Une fois la voix clonée, elle peut être utilisée dans des communications trompeuses, souvent accompagnées d'une usurpation de l'identification de l'appelant pour paraître digne de confiance.
De nombreuses affaires d’arnaque au clonage vocal ont fait la une des journaux.
Par exemple, des criminels ont cloné la voix d’un chef d’entreprise aux Émirats arabes unis pour orchestrer un vol de 51 millions de dollars australiens.
Un homme d'affaires de Mumbai a été victime d'une escroquerie de clonage vocal impliquant un faux appel de l'ambassade indienne à Dubaï.
En Australie récemment, des escrocs ont utilisé un clone vocal du premier ministre du Queensland, Steven Miles, pour tenter d'inciter les gens à investir dans Bitcoin.
Les adolescents et les enfants sont également visés. Lors d'une escroquerie d'enlèvement aux États-Unis, la voix d'une adolescente a été clonée et ses parents manipulés pour qu'ils se conforment aux exigences.
Quelle est son étendue ?
Des recherches récentes montrent que 28 % des adultes au Royaume-Uni ont été confrontés à des escroqueries par clonage vocal l'année dernière, et 46 % d'entre eux ignorent l'existence de ce type d'escroquerie.
Cela met en évidence un manque de connaissances important, exposant des millions de personnes au risque de fraude.
En 2022, près de 240 000 Australiens ont déclaré avoir été victimes d’escroqueries au clonage vocal, entraînant une perte financière de 568 millions de dollars australiens.
Comment les individus et les organisations peuvent s’en prémunir
Les risques posés par le clonage vocal nécessitent une réponse multidisciplinaire.
Les personnes et les organisations peuvent mettre en œuvre plusieurs mesures pour se prémunir contre l’utilisation abusive de la technologie de clonage vocal.
Premièrement, les campagnes de sensibilisation et d’éducation du public peuvent contribuer à protéger les personnes et les organisations et à atténuer ces types de fraude.
La collaboration public-privé peut fournir des informations claires et des options de consentement pour le clonage vocal.
Deuxièmement, les personnes et les organisations devraient envisager d’utiliser la sécurité biométrique avec la détection d’activité, une nouvelle technologie capable de reconnaître et de vérifier une voix réelle plutôt qu’une fausse. Et les organisations utilisant la reconnaissance vocale devraient envisager d’adopter l’authentification multifacteur.
Troisièmement, le renforcement des capacités d’enquête contre le clonage vocal est une autre mesure cruciale pour les forces de l’ordre.
Enfin, des réglementations précises et actualisées sont nécessaires pour les pays afin de gérer les risques associés.
Les forces de l’ordre australiennes reconnaissent les avantages potentiels de l’IA.
Pourtant, les inquiétudes concernant le « côté obscur » de cette technologie ont suscité des appels à des recherches sur l’utilisation criminelle de « l’intelligence artificielle pour cibler les victimes ».
Certains réclament également des stratégies d'intervention possibles que les forces de l'ordre pourraient utiliser pour lutter contre ce problème.
De tels efforts devraient être liés au Plan national global de lutte contre la cybercriminalité, qui se concentre sur des stratégies proactives, réactives et réparatrices.
Ce plan national stipule un devoir de diligence pour les prestataires de services, reflété dans la nouvelle législation du gouvernement australien visant à protéger le public et les petites entreprises.
La législation vise de nouvelles obligations pour prévenir, détecter, signaler et déjouer les escroqueries.
Cela s’appliquera aux organisations réglementées telles que les opérateurs de télécommunications, les banques et les fournisseurs de plateformes numériques. L’objectif est de protéger les clients en prévenant, en détectant, en signalant et en interrompant les cyberescroqueries impliquant la tromperie.
Réduire le risque
Alors que la cybercriminalité coûte à l’économie australienne environ 42 milliards de dollars australiens, la sensibilisation du public et des mesures de protection solides sont essentielles.
Des pays comme l’Australie reconnaissent le risque croissant. L’efficacité des mesures contre le clonage vocal et autres fraudes dépend de leur adaptabilité, de leur coût, de leur faisabilité et de leur conformité réglementaire.
Toutes les parties prenantes – gouvernement, citoyens et forces de l’ordre – doivent rester vigilantes et sensibiliser le public afin de réduire le risque de victimisation.