Ai Deepfakes pousse des faux remèdes sexuels
Tenir une carotte surdimensionnée, un homme musclé et torse nu favorise un supplément qu’il prétend peut élargir les organes génitaux masculins – l’une d’innombrables vidéos générées par l’AI sur Tiktok colporant des traitements sexuels non prouvés.
La montée en puissance de l’IA génératrice a facilité la production de ces vidéos et financièrement lucrative – pour produire en masse de telles vidéos avec un minimum de surveillance humaine, présentant souvent de fausses célébrités de faux et de produits potentiellement nocifs.
Dans certaines vidéos Tiktok, les carottes sont utilisées comme euphémisme pour les organes génitaux masculins, apparemment pour échapper à la modération du contenu.
« Vous remarqueriez que votre carotte a grandi », dit l’homme musclé d’une voix robotique dans une vidéo, dirigeant les utilisateurs vers un lien d’achat en ligne.
« Ce produit changera votre vie », ajoute l’homme, affirmant sans preuve que les herbes utilisées comme ingrédients augmentent la testostérone et envoient des niveaux d’énergie « à travers le toit ».
La vidéo semble être générée par l’AI, selon un service de détection DeepFake récemment lancé par l’entreprise dont le siège social ressemble à Bay Area ressemble à AI, qui a partagé ses résultats avec l’AFP.
« Comme le montre cet exemple, le contenu trompeur généré par l’IA est utilisé pour commercialiser des suppléments avec des réclamations exagérées ou non vérifiées, mettant potentiellement la santé des consommateurs en danger », a déclaré à l’AFP Zohaib Ahmed, le directeur général de l’IA et le cofondateur de l’IA.
« Nous constatons que le contenu généré par l’AIA a armé pour diffuser de fausses informations. »
‘FAME AUX COISSE’
La tendance souligne à quel point les progrès rapides de l’intelligence artificielle ont alimenté ce que les chercheurs appellent une dystopie d’IA, un univers en ligne rempli de tromperie conçu pour manipuler les utilisateurs sans méfiance à acheter des produits douteux.
Ils incluent tout, des suppléments non vérifiés – et dans certains cas, potentiellement nocifs – aux produits de perte de poids et aux remèdes sexuels.
« L’IA est un outil utile pour les Grifters qui cherchent à créer de grands volumes de Sols de contenu à un faible coût », a déclaré Abbie Richards, chercheur en désinformation, à l’AFP.
« C’est un moyen bon marché de produire des publicités », a-t-elle ajouté.
Alexios Mantzarlis, directeur de l’initiative de sécurité, de confiance et de sécurité à Cornell Tech, a observé une vague de voies d’avatars et de piste audio « AI Doctor » sur Tiktok qui promeuvent des remèdes sexuels douteux.
Certaines de ces vidéos, dont beaucoup avec des millions de vues, colportent des concoctions de stimulation de la testostérone fabriquées à partir d’ingrédients tels que le citron, le gingembre et l’ail.
De plus en plus, en évolution rapide des outils d’IA, ont permis à la création de célébrités Deepfakes à l’identité de célébrités telles que l’actrice Amanda Seyfried et l’acteur Robert de Niro.
« Votre mari ne peut pas entendre? » Anthony Fauci, ancien directeur de l’Institut national des allergies et des maladies infectieuses, semble demander dans une vidéo Tiktok faisant la promotion d’un supplément de la prostate.
Mais le clip est un Fake Deep, en utilisant la ressemblance de Fauci.
‘Pernicieux’
De nombreuses vidéos manipulées sont créées à partir de celles existantes, modifiées avec des voix générées par l’IA et synchronisées pour les lèvres pour correspondre à ce que dit la voix altérée.
« Les vidéos d’identité sont particulièrement pernicieuses car elles dégradent encore notre capacité à discerner des comptes authentiques en ligne », a déclaré Mantzarlis.
L’année dernière, Mantzarlis a découvert des centaines de publicités sur YouTube avec des fesses profondes de célébrités, dont Arnold Schwarzenegger, Sylvester Stallone et Mike Tyson – préparant les suppléments de la dysfonction érectile.
Le rythme rapide de la génération de vidéos IA courtes signifie que même lorsque les plates-formes technologiques suppriment un contenu douteux, les versions presque identiques réapparaissent rapidement, ce qui tourne la modération dans un jeu de whack-a-mole.
Les chercheurs disent que cela crée des défis uniques pour la gestion du contenu généré par l’IA, nécessitant de nouvelles solutions et des outils de détection plus sophistiqués.
Les vérificateurs de faits de l’AFP ont démystifié à plusieurs reprises les publicités sur les arnaques sur Facebook faisant la promotion des traitements, y compris les remèdes contre la dysfonction érectile – qui utilisent de fausses approbations de Ben Carson, un neurochirurgien et ancien membre du Cabinet américain.
Pourtant, de nombreux utilisateurs considèrent toujours les approbations légitimes, illustrant l’attrait des FaKes Deep.
« Les schémas de marketing d’affiliation arnaque et les suppléments sexuels douteux existent aussi longtemps qu’Internet et avant », a déclaré Mantzarlis.
« Comme pour toutes les autres mauvaises choses en ligne, l’IA génératrice a rendu ce vecteur d’abus moins cher et plus rapide à déployer à grande échelle. »
