Internet regorge de fausses critiques. L’IA va-t-elle empirer les choses ?
L’émergence d’outils d’intelligence artificielle générative qui permettent aux utilisateurs de produire efficacement des avis en ligne nouveaux et détaillés sans presque aucun travail a placé les commerçants, les fournisseurs de services et les consommateurs en territoire inconnu, affirment des groupes de surveillance et des chercheurs.
Les fausses critiques tourmentent depuis longtemps de nombreux sites Web grand public populaires, tels qu'Amazon et Yelp. Ils sont généralement échangés sur des groupes de médias sociaux privés entre de faux courtiers en avis et des entreprises prêtes à payer. Parfois, ces avis sont initiés par des entreprises qui offrent à leurs clients des incitations telles que des cartes-cadeaux pour des commentaires positifs.
Mais les outils de génération de texte basés sur l'IA, popularisés par ChatGPT d'OpenAI, permettent aux fraudeurs de produire des avis plus rapidement et en plus grand volume, selon les experts du secteur technologique.
Cette pratique trompeuse, illégale aux États-Unis, est pratiquée toute l'année, mais devient un problème plus important pour les consommateurs pendant la période des fêtes de fin d'année, lorsque de nombreuses personnes se fient aux avis pour les aider à acheter des cadeaux.
Où apparaissent les avis générés par l’IA ?
Les faux avis sont présents dans un large éventail de secteurs, depuis le commerce électronique, l'hébergement et la restauration, jusqu'aux services tels que les réparations domiciliaires, les soins médicaux et les cours de piano.
The Transparency Company, une entreprise technologique et un groupe de surveillance qui utilise des logiciels pour détecter les faux avis, a déclaré avoir commencé à voir des avis générés par l'IA apparaître en grand nombre à la mi-2023 et ils se sont multipliés depuis.
Pour un rapport publié ce mois-ci, The Transparency Company a analysé 73 millions d'avis dans trois secteurs : services à domicile, services juridiques et médicaux. Près de 14 % des avis étaient probablement faux, et la société a exprimé un « degré élevé de confiance » dans le fait que 2,3 millions d'avis étaient en partie ou entièrement générés par l'IA.
« C'est juste un très très bon outil pour ces fraudeurs », a déclaré Maury Blackman, investisseur et conseiller auprès de startups technologiques, qui a examiné le travail de The Transparency Company et qui devrait diriger l'organisation à partir du 1er janvier.
En août, la société de logiciels DoubleVerify a déclaré qu'elle observait une « augmentation significative » des applications pour téléphones mobiles et téléviseurs intelligents avec des avis élaborés par l'IA générative. Les avis étaient souvent utilisés pour inciter les clients à installer des applications susceptibles de pirater des appareils ou de diffuser des publicités en permanence, a indiqué la société.
Le mois suivant, la Federal Trade Commission a poursuivi la société derrière un outil d'écriture d'IA et un générateur de contenu appelé Rytr, l'accusant d'offrir un service qui pourrait polluer le marché avec des avis frauduleux.
La FTC, qui a interdit cette année la vente ou l'achat de fausses critiques, a déclaré que certains abonnés de Rytr utilisaient l'outil pour produire des centaines, voire des milliers de critiques pour des entreprises de réparation de portes de garage, des vendeurs de « répliques » de sacs à main de créateurs et d'autres entreprises.
C'est probablement aussi sur des sites en ligne de premier plan
Max Spero, PDG de la société de détection d'IA Pangram Labs, a déclaré que le logiciel utilisé par son entreprise a détecté avec presque certitude que certaines évaluations générées par l'IA et publiées sur Amazon remontaient en haut des résultats de recherche d'avis parce qu'elles étaient très détaillées et semblaient bien fonctionner. réfléchi.
Mais déterminer ce qui est faux ou non peut s’avérer difficile. Les parties externes peuvent échouer parce qu'elles n'ont pas « accès aux signaux de données qui indiquent des schémas d'abus », a déclaré Amazon.
Pangram Labs a effectué des détections sur certains sites en ligne importants, que Spero a refusé de nommer en raison d'accords de non-divulgation. Il a déclaré avoir évalué Amazon et Yelp de manière indépendante.
De nombreux commentaires générés par l'IA sur Yelp semblent avoir été publiés par des personnes qui essayaient de publier suffisamment d'avis pour obtenir un badge « Élite », destiné à faire savoir aux utilisateurs qu'ils doivent faire confiance au contenu, a déclaré Spero.
Le badge donne accès à des événements exclusifs avec des propriétaires d'entreprises locales. Les fraudeurs le souhaitent également pour que leurs profils Yelp paraissent plus réalistes, a déclaré Kay Dean, un ancien enquêteur criminel fédéral qui dirige un groupe de surveillance appelé Fake Review Watch.
Bien sûr, ce n’est pas parce qu’un avis est généré par l’IA qu’il est faux. Certains consommateurs peuvent expérimenter des outils d’IA pour générer du contenu qui reflète leurs véritables sentiments. Certains anglophones non natifs déclarent se tourner vers l’IA pour s’assurer qu’ils utilisent un langage précis dans les avis qu’ils rédigent.
« Cela peut aider avec les avis (et) les rendre plus informatifs s'ils proviennent de bonnes intentions », a déclaré Sherry He, professeur de marketing à la Michigan State University, qui a étudié les faux avis. Elle affirme que les plateformes technologiques devraient se concentrer sur les comportements des mauvais acteurs, ce que font déjà les plateformes de premier plan, au lieu de décourager les utilisateurs légitimes de se tourner vers les outils d’IA.
Ce que font les entreprises
Des entreprises de premier plan élaborent des politiques sur la façon dont le contenu généré par l’IA s’intègre dans leurs systèmes afin de supprimer les avis faux ou abusifs. Certains utilisent déjà des algorithmes et des équipes d’enquête pour détecter et supprimer les faux avis, mais offrent aux utilisateurs une certaine flexibilité pour utiliser l’IA.
Les porte-parole d'Amazon et de Trustpilot, par exemple, ont déclaré qu'ils autoriseraient les clients à publier des avis assistés par l'IA à condition qu'ils reflètent leur véritable expérience. Yelp a adopté une approche plus prudente, affirmant que ses directives exigent que les évaluateurs rédigent leur propre copie.
« Avec la récente augmentation de l'adoption des outils d'IA par les consommateurs, Yelp a considérablement investi dans des méthodes permettant de mieux détecter et atténuer ce type de contenu sur notre plateforme », a déclaré la société dans un communiqué.
La Coalition for Trusted Reviews, lancée l'année dernière par Amazon, Trustpilot, le site d'évaluation des emplois Glassdoor et les sites de voyage Tripadvisor, Expedia et Booking.com, a déclaré que même si les trompeurs peuvent utiliser l'IA à des fins illicites, la technologie présente également « une opportunité de repoussez ceux qui cherchent à utiliser les avis pour induire les autres en erreur. »
« En partageant les meilleures pratiques et en élevant les normes, notamment en développant des systèmes avancés de détection d'IA, nous pouvons protéger les consommateurs et maintenir l'intégrité des avis en ligne », a déclaré le groupe.
La règle de la FTC interdisant les faux avis, entrée en vigueur en octobre, permet à l'agence d'imposer des amendes aux entreprises et aux particuliers qui se livrent à cette pratique. Les entreprises technologiques qui hébergent de tels avis sont à l’abri de cette sanction, car elles ne sont pas légalement responsables, en vertu de la loi américaine, du contenu que des tiers publient sur leurs plateformes.
Des entreprises technologiques, dont Amazon, Yelp et Google, ont poursuivi en justice de faux courtiers d'avis qu'elles accusent de colporter des avis contrefaits sur leurs sites. Les entreprises affirment que leur technologie a bloqué ou supprimé un grand nombre d’avis et de comptes suspects. Toutefois, certains experts affirment qu’ils pourraient faire davantage.
« Leurs efforts jusqu'à présent sont loin d'être suffisants », a déclaré le doyen de Fake Review Watch. « Si ces entreprises technologiques sont si déterminées à éliminer la fraude aux avis sur leurs plateformes, pourquoi moi, une personne qui travaille sans automatisation, peux-je trouver des centaines, voire des milliers de faux avis, chaque jour ? »
Repérer les faux avis générés par l'IA
Selon les chercheurs, les consommateurs peuvent essayer de repérer les faux avis en surveillant quelques signes avant-coureurs possibles. Les critiques trop enthousiastes ou négatives sont des signaux d’alarme. Le jargon qui répète le nom complet ou le numéro de modèle d'un produit est un autre révélateur potentiel.
En ce qui concerne l'IA, les recherches menées par Balázs Kovács, professeur de comportement organisationnel à Yale, ont montré que les gens ne peuvent pas faire la différence entre les avis générés par l'IA et ceux rédigés par des humains. Certains détecteurs d’IA peuvent également être trompés par des textes plus courts, courants dans les critiques en ligne, selon l’étude.
Cependant, il existe des « indications IA » que les acheteurs en ligne et les demandeurs de services devraient garder à l'esprit. Panagram Labs affirme que les avis rédigés avec l'IA sont généralement plus longs, très structurés et incluent des « descripteurs vides », tels que des expressions et des attributs génériques. L'écriture a également tendance à inclure des clichés comme « la première chose qui m'a frappé » et « qui change la donne ».