Est-ce un journal télévisé ou un argumentaire de vente ? Les nouvelles vidéos d’IA rendent difficile la détection
Dans une courte publication vidéo, un influenceur s'énerve à propos d'un reportage télévisé en provenance de Californie. Les images diffusées derrière elle semblent authentiques, avec un présentateur appelant les téléspectateurs à l'action, des victimes et même un logo de CNN.
« Les victimes d'accidents en Californie reçoivent des indemnités insensées », déclare le présentateur au-dessus d'une bannière vantant « BREAKING NEWS ».
Mais ce qui pourrait être une star des médias sociaux enthousiasmée par l’actualité locale n’est en réalité qu’une publicité visant à inciter les gens à s’inscrire à des services juridiques. Et une grande partie est générée par l’intelligence artificielle.
Avec une multitude de nouveaux outils vidéo d’IA et de nouvelles façons de les partager lancés ces derniers mois, la frontière entre journal télévisé et argumentaire de vente commence à s’estomper.
Les avocats spécialisés dans les dommages corporels sont connus depuis longtemps pour leurs publicités exagérées. Ils exploitent les dernières méthodes – radio, télévision, numéros 1-800, panneaux d'affichage, bancs aux arrêts de bus et infopublicités – pour graver leurs marques dans la conscience des consommateurs. Les publicités sont intentionnellement répétitives, scandaleuses et accrocheuses, de sorte que si les téléspectateurs ont un accident, ils se rappellent qui appeler.
Ils utilisent désormais l’IA pour créer une nouvelle vague de publicités plus convaincantes, plus convaincantes et plus locales.
« Les publicités en ligne pour les biens et les services utilisent des humains générés par l'IA et des répliques d'influenceurs pour promouvoir leur marque sans divulguer la nature synthétique des personnes représentées », a déclaré Alexios Mantzarlis, directeur de la confiance, de la sûreté et de la sécurité chez Cornell Tech. « Cette tendance n'est pas encourageante pour la recherche de la vérité dans la publicité. »
Les informations télévisées ne sont pas les seules à être clonées par des robots. De plus en plus, les gros titres criards des fils d’actualité des internautes sont générés par l’IA pour le compte des annonceurs.
Dans une annonce en ligne sur le remboursement de dettes, un homme tient un journal avec un titre suggérant que les résidents californiens endettés de 20 000 $ sont éligibles à une aide. La publicité montre les emprunteurs alignés pour en bénéficier. L'homme, le journal « Forbes » qu'il tient et la liste des personnes sont tous générés par l'IA, disent les experts.
Malgré les critiques croissantes à l'égard de ce que certains ont surnommé le « slop de l'IA », les entreprises ont continué à lancer des outils de plus en plus puissants pour la génération réaliste de vidéos IA, facilitant la création de fausses nouvelles et de diffusions sophistiquées.
Meta a récemment présenté Vibes, une application dédiée à la création et au partage de vidéos courtes générées par l'IA. Quelques jours plus tard, OpenAI a publié sa propre application Sora pour partager des vidéos IA, avec un modèle de génération vidéo et audio mis à jour.
La fonctionnalité « Cameo » de Sora permet aux utilisateurs d'insérer leur propre image ou celle d'un ami dans de courtes vidéos IA photo-réalistes. Les vidéos prennent quelques secondes à réaliser.
Depuis son lancement, l'application Sora s'est hissée au sommet du classement des téléchargements de l'App Store. OpenAI encourage les entreprises et les développeurs à utiliser ses outils pour développer et promouvoir leurs produits et services.
« Nous espérons que désormais, avec la vidéo Sora 2 dans (l'interface de programmation d'applications), vous générerez les mêmes vidéos de haute qualité directement dans vos produits, avec un son réaliste et synchronisé, et découvrirez toutes sortes de nouvelles choses intéressantes à construire », a déclaré Sam Altman, directeur général d'OpenAI, aux développeurs.
Ce qui émerge est une nouvelle classe de plateformes de médias sociaux synthétiques qui permettent aux utilisateurs de créer, partager et découvrir du contenu généré par l'IA dans un flux sur mesure, répondant aux goûts de chacun.
Imaginez un flux constant de vidéos aussi addictives et virales que celles de TikTok, mais il est souvent impossible de dire lesquelles sont réelles.
Le danger, disent les experts, réside dans la manière dont ces nouveaux outils puissants, désormais abordables pour presque tout le monde, peuvent être utilisés. Dans d’autres pays, des acteurs soutenus par l’État ont utilisé des informations et des reportages générés par l’IA pour diffuser de la désinformation.
Les experts en sécurité en ligne affirment que l’IA, qui produit des histoires, de la propagande et des publicités douteuses, noie dans certains cas le contenu généré par l’homme et détériore l’écosystème de l’information.
YouTube a dû supprimer des centaines de vidéos générées par l'IA mettant en vedette des célébrités, dont Taylor Swift, qui faisaient la promotion des escroqueries à Medicare. Spotify a supprimé des millions de morceaux de musique générés par l'IA. Le FBI estime que les Américains ont perdu 50 milliards de dollars à cause des escroqueries deepfake depuis 2020.
L’année dernière, un journaliste du Los Angeles Times a été déclaré mort à tort par les présentateurs d’AI.
Dans le monde des publicités pour les services juridiques, qui ont l’habitude de repousser les limites, certains craignent que les progrès rapides de l’IA facilitent le contournement des restrictions. La frontière est mince, car les publicités juridiques peuvent dramatiser, mais elles ne sont pas autorisées à promettre des résultats ou des paiements.
Les journaux télévisés sur l'IA montrant des victimes de l'IA détenant de gros chèques d'IA testent de nouveaux territoires, a déclaré Samuel Hyams-Millard, associé au cabinet d'avocats SheppardMulin.
« Quelqu'un pourrait voir cela et penser que c'est réel, oh, cette personne a en fait reçu cette somme d'argent. C'est en fait une actualité similaire, alors que ce n'est peut-être pas le cas », a-t-il déclaré. « C'est un problème. »
Case Connect AI est un pionnier dans le domaine. La société diffuse des publicités sponsorisées sur YouTube Shorts et Facebook, ciblant les personnes impliquées dans des accidents de voiture et d'autres blessures corporelles. Il utilise également l’IA pour faire savoir aux utilisateurs ce qu’ils pourraient retirer d’une affaire judiciaire.
Dans une publicité, ce qui semble être un influenceur enthousiaste des médias sociaux affirme que les compagnies d'assurance tentent de fermer Case Connect parce que son « calculateur d'indemnisation » coûte très cher aux compagnies d'assurance.
L'annonce passe ensuite à ce qui semble être un clip d'actualité de cinq secondes sur les paiements que reçoivent les utilisateurs. L'acteur réapparaît, désignant une autre courte vidéo de ce qui semble être des couples tenant des chèques surdimensionnés et faisant la fête.
« Tout le monde derrière moi a utilisé l'application et a reçu un paiement massif », explique l'influenceur. « Et maintenant c'est ton tour. »
En septembre, au moins une demi-douzaine de publicités courtes YouTube de Case Connect présentaient des présentateurs d'actualités ou des témoignages générés par l'IA mettant en vedette des personnes maquillées, selon les publicités trouvées sur le site Web Google Ads Transparency.
Case Connect n'utilise pas toujours des humains générés par l'IA. Parfois, il utilise des robots générés par l’IA, voire des singes, pour diffuser son message. La société a déclaré qu'elle utilisait le modèle Veo 3 de Google pour créer des vidéos. Il n’a pas indiqué quelles parties de ses publicités étaient de l’IA.
Angelo Perone, fondateur de Case Connect, basé en Pennsylvanie, affirme que la société a diffusé des publicités sur les réseaux sociaux qui utilisent l'IA pour cibler les utilisateurs de Californie et d'autres États susceptibles de souffrir d'accidents de voiture, d'accidents ou d'autres blessures corporelles afin de potentiellement s'inscrire en tant que clients.
« Cela nous donne un super pouvoir pour entrer en contact avec les personnes qui ont été blessées dans des accidents de voiture afin que nous puissions les servir et les orienter vers l'avocat approprié pour leur situation », a-t-il déclaré.
Son entreprise génère des prospects pour les cabinets d'avocats et est rémunérée par des honoraires forfaitaires ou une provision mensuelle de la part des cabinets. Elle ne pratique pas le droit.
« Nous naviguons dans cet espace comme tout le monde, en essayant de le faire de manière responsable tout en restant efficaces », a déclaré Perone dans un e-mail. « Il y a toujours un équilibre entre rencontrer les gens là où ils se trouvent et se connecter avec eux d'une manière qui résonne, sans pour autant faire de promesses excessives, ne pas livrer suffisamment ou induire qui que ce soit en erreur. »
Perone a déclaré que Case Connect est conforme aux règles et réglementations liées aux publicités légales.
« Tout est conforme aux clauses de non-responsabilité et au langage approprié », a-t-il déclaré.
Certains avocats et spécialistes du marketing pensent que son entreprise va trop loin.
En janvier, Robert Simon, avocat plaidant et co-fondateur de Simon Law Group, a publié une vidéo sur Instagram affirmant que certaines publicités Case Connect qui semblaient cibler les victimes des incendies du comté de Los Angeles étaient « flagrantes », mettant en garde les gens contre le calculateur de dégâts.
En tant que membre des Consumer Attorneys of California, un groupe de pression législatif pour les consommateurs, Simon a déclaré qu'il avait contribué à la rédaction du projet de loi 37 du Sénat visant à lutter contre les publicités trompeuses. C’était un problème bien avant l’émergence de l’IA.
« Nous en parlons depuis longtemps en mettant des garde-fous à davantage d'éthique pour les avocats », a déclaré Simon.
Le droit des dommages corporels représente un marché estimé à 61 milliards de dollars aux États-Unis, et Los Angeles est l'une des plus grandes plaques tournantes de ce secteur.
Hyams-Millard a déclaré que même si Case Connect n'est pas un cabinet d'avocats, les avocats qui travaillent avec lui pourraient être tenus responsables de la nature potentiellement trompeuse de ses publicités.
Même certaines entreprises de génération de leads reconnaissent que certaines agences pourraient abuser de l’IA et amener les publicités du secteur dans des eaux dangereuses et inexplorées.
« Le besoin de garde-fous n'est pas nouveau », a déclaré Vince Wingerter, fondateur de 4LegalLeads, une entreprise de génération de leads. « Ce qui est nouveau, c'est que la technologie est désormais plus puissante et superposée. »
