Les appels frauduleux d'IA imitant des voix familières sont un problème croissant - voici comment ils fonctionnent

Les appels frauduleux d’IA imitant des voix familières sont un problème croissant – voici comment ils fonctionnent

Crédit : Antonio Guillem/Shutterstock

Les appels frauduleux utilisant l’IA pour imiter les voix de personnes que vous connaissez peut-être sont utilisés pour exploiter des membres du public sans méfiance. Ces appels utilisent ce qu’on appelle l’IA générative, qui fait référence à des systèmes capables de créer du texte, des images ou tout autre média tel que la vidéo, en fonction des invites d’un utilisateur.

Les deepfakes ont gagné en notoriété au cours des dernières années avec un certain nombre d’incidents très médiatisés, tels que la ressemblance de l’actrice Emma Watson utilisée dans une série de publicités suggestives apparues sur Facebook et Instagram.

Il y avait aussi la vidéo largement partagée – et démystifiée – de 2022 dans laquelle le président ukrainien Volodymyr Zelensky semblait dire aux Ukrainiens de « déposer les armes ».

Désormais, la technologie permettant de créer un deepfake audio, une copie réaliste de la voix d’une personne, devient de plus en plus courante. Pour créer une copie réaliste de la voix de quelqu’un, vous avez besoin de données pour entraîner l’algorithme. Cela signifie avoir beaucoup d’enregistrements audio de la voix de votre cible. Plus vous pouvez introduire d’exemples de la voix de la personne dans les algorithmes, meilleure sera la copie finale et plus elle sera convaincante.

Beaucoup d’entre nous partagent déjà des détails de notre vie quotidienne sur Internet. Cela signifie que les données audio nécessaires pour créer une copie réaliste d’une voix pourraient être facilement disponibles sur les réseaux sociaux. Mais que se passe-t-il une fois qu’une copie est disponible ? Quel est le pire qui puisse arriver ? Un algorithme deepfake pourrait permettre à toute personne en possession des données de vous faire dire ce qu’elle veut. En pratique, cela peut être aussi simple que d’écrire un texte et de demander à l’ordinateur de le dire à haute voix dans ce qui ressemble à votre voix.

Défis majeurs

Cette capacité risque d’augmenter la prévalence de la désinformation et de la désinformation audio. Il peut être utilisé pour tenter d’influencer l’opinion publique internationale ou nationale, comme on le voit avec les « vidéos » de Zelensky.

Mais l’omniprésence et la disponibilité de ces technologies posent également des défis importants au niveau local, en particulier dans la tendance croissante des « appels frauduleux à l’IA ». De nombreuses personnes auront reçu un appel d’escroquerie ou de phishing qui nous dit, par exemple, que notre ordinateur a été compromis et que nous devons immédiatement nous connecter, donnant potentiellement à l’appelant l’accès à nos données.

Il est souvent très facile de repérer qu’il s’agit d’un canular, en particulier lorsque l’appelant fait des demandes que quelqu’un d’une organisation légitime ne ferait pas. Cependant, imaginez maintenant que la voix à l’autre bout du téléphone n’est pas seulement un étranger, mais ressemble exactement à celle d’un ami ou d’un être cher. Cela injecte un tout nouveau niveau de complexité et de panique chez le destinataire malchanceux.

Une histoire récente rapportée par CNN met en lumière un incident où une mère a reçu un appel d’un numéro inconnu. Quand elle a répondu au téléphone, c’était sa fille. La fille aurait été kidnappée et téléphonait à sa mère pour lui transmettre une demande de rançon.

En fait, la jeune fille était saine et sauve. Les escrocs avaient fait un deepfake de sa voix. Il ne s’agit pas d’un incident isolé, avec des variantes de l’escroquerie, y compris un supposé accident de voiture, où la victime appelle sa famille pour obtenir de l’argent afin de l’aider après un accident.

Vieux truc utilisant la nouvelle technologie

Ce n’est pas une nouvelle arnaque en soi, le terme « arnaque de kidnapping virtuel » existe depuis plusieurs années. Cela peut prendre de nombreuses formes, mais une approche courante consiste à inciter les victimes à payer une rançon pour libérer un être cher qu’elles croient être menacé.

L’escroc essaie d’établir une conformité aveugle, afin d’amener la victime à payer une rançon rapide avant que la supercherie ne soit découverte. Cependant, l’avènement de technologies d’IA puissantes et disponibles a considérablement fait monter les enchères et rendu les choses plus personnelles. C’est une chose de raccrocher à un appelant anonyme, mais il faut une réelle confiance en votre jugement pour raccrocher à un appel de quelqu’un qui ressemble à votre enfant ou à votre partenaire.

Il existe un logiciel qui peut être utilisé pour identifier les deepfakes et créer une représentation visuelle de l’audio appelée spectrogramme. Lorsque vous écoutez l’appel, il peut sembler impossible de le distinguer de la personne réelle, mais les voix peuvent être distinguées lorsque les spectrogrammes sont analysés côte à côte. Au moins un groupe a proposé un logiciel de détection à télécharger, bien que de telles solutions puissent encore nécessiter certaines connaissances techniques pour être utilisées.

La plupart des gens ne seront pas en mesure de générer des spectrogrammes, alors que pouvez-vous faire lorsque vous n’êtes pas certain que ce que vous entendez est la réalité ? Comme pour toute autre forme de média que vous pourriez rencontrer : soyez sceptique.

Si vous recevez un appel d’un être cher à l’improviste et qu’il vous demande de l’argent ou fait des demandes qui semblent hors de propos, rappelez-le ou envoyez-lui un SMS pour confirmer que vous lui parlez vraiment.

À mesure que les capacités de l’IA se développeront, les frontières entre la réalité et la fiction s’estomperont de plus en plus. Et il est peu probable que nous puissions remettre la technologie dans la boîte. Cela signifie que les gens devront devenir plus prudents.