Les vidéos de l’IA ont cassé les algorithmes Instagram et Tiktok. Bienvenue dans le nouveau « paysage de l’IA »
Il y a plus d’un mois, cette vidéo Instagram désagréable est devenue virale dans ce réseau social. En lui, une étrange créature à moitié-aspider d’un homme a fait une étrange apparition dans un centre commercial. À l’heure actuelle, la vidéo a 3,5 millions de «comme» et plus de 23 000, mais le vraiment inquiétant n’est pas cela.
Effondrement des vidéos générées par l’IA. Ce qui est inquiétant, c’est que cette vidéo fait partie d’une avalanche de vidéos générées par l’IA qui efface les réseaux tels que Instagram ou Tiktok.
Et des algorithmes cassés. Comme expliqué dans 404 Media, l’algorithme de ces plates-formes a fini par percer une attaque de force brute unique. Celui dans lequel ces réseaux n’arrêtent pas de recevoir du contenu généré par l’IA pour finir par saturer ces algorithmes de recommandation.
Une Lea. Les attaques de force brute essaient, par exemple, de découvrir un mot de passe testant une par une toutes les combinaisons possibles. Dans ce cas, ce qu’ils essaient, c’est de saturer les algorithmes afin qu’ils finissent par montrer ces vidéos générées par l’IA, et ils l’atteignent. Certains appellent déjà Instagram Ya Tiktok « Les villageois de l’IA » pour l’énorme quantité de ces contenus, et qui ont rendu le contenu conventionnel généré par les utilisateurs humains ont perdu une grande pertinence pour l’algorithme.
La réalité a changé. Pour beaucoup, ces réseaux, ils servent non seulement à se divertir, mais à être conscients du présent. Les vidéos essaient souvent de profiler la réalité, mais cette réalité a maintenant été perturbée et ces comptes Instagram ou Tiktok montrent à peine tout ce qui est réel. Certaines vidéos sont en profondeur de détection des inconvénients, et comme nous vérifions dans le passé, le paradoxal est que parfois nous ne sommes même pas en mesure de détecter ce qui est réel et ce qui ne l’est pas.
L’IA cherche la viralité et finit par la trouver. Les créateurs des réseaux sociaux cherchent à rendre leurs vidéos virales, et pour cela, ils consacrent d’énormes ressources et temps. Malgré cela, le succès n’est pas assuré, mais les spammeurs qui rendent le contenu vidéo généré avec l’IA n’ont pas besoin de penser autant: ils peuvent générer des milliers de vidéos avec très peu d’effort, inonder les réseaux sociaux et attendre que certains de ces contenus réussissent. La loterie de la viralité n’est pas tant si vous avez beaucoup de billets.
Les influenceurs qui gagnent de l’argent avec les décharges de l’IA. Comme d’habitude dans ce type de phénomènes, les influenceurs sont apparus avec de nouvelles formules pour s’enrichir rapidement et sans aucun effort. L’un d’eux, un de 17 ans nommé Daniel Bitton, se vante d’avoir déjà gagné deux millions de dollars et a un message clair. « Alors que d’autres investissent 5 ou 6 heures pour faire une vidéo parfaite, nous pouvons générer 8 ou 10 shorts en moins de 30 minutes. » Comme? Utilisation d’outils d’IA.
La méthode « hot-dog ». L’un des amis de Bitton est un spam Tiktok bien connu appelé Musa Mustafa. Sa méthode pour devenir virale est celle du « hot-dog triste »: « Lorsque vous avez faim à deux heures du matin, même un hot-dog triste sait mieux que n’importe quel repas de restaurant Michelin. Tiktok travaille de la même manière. Votre public ne s’attend pas à (vous ne voulez même pas) des vidéos parfaitement polies. » Mustafa se demande, non sans raison, « Quand c’était la dernière fois que vous avez vu une vidéo virale de Tiktok et que vous pensiez: » Uauh, le degré de couleur dans cette vidéo est incroyable. » Ou quelle est la même chose: le montant gagne par une victoire à la qualité.
Mais les plates-formes embrassent ces contenus. Dans The Guardian, ils nous ont déjà avertis: les plateformes et les réseaux sociaux n’arrêtent pas ce type de spam, mais en profitent, ils l’acceptent et même la faisant la promotion. En fait, ils proposent des outils pour faciliter la génération de contenu via l’IA, ce qui signifie que plutôt que d’essayer de résoudre le problème, ils l’aggravent.
Un exemple: Facebook. La Meta Firm a récemment lancé un outil pour les annonceurs appelés Advantage +. Avec lui, il est possible de créer avec différentes versions d’une annonce pour les essayer toutes avec la méthode de test A / B, puis sélectionnez celle qui fonctionne le mieux. Pour les annonceurs (et pour la ligne d’arrivée, bien sûr), tout cela est fantastique, car ils peuvent obtenir des publicités plus efficaces avec beaucoup moins d’investissement de temps et d’argent.
Y a-t-il des limites? Il y aura sans aucun doute des utilisateurs qui rejettent ce type de contenu: des réseaux précisément tels que Bluesky ou Mastodon s’éloignent de l’algorithme et sont plus similaires à la façon dont ils étaient Twitter ou Facebook il y a des années. Mais il semble clair qu’une grande majorité d’entre eux n’ont pas de problème avec ces contenus générés par l’IA, qui ont en fait un exemple de succès en ce que le porno généré par les combinaisons impossibles – un poisson généré en embrassant une femme générée par IA, un Orco généré en épousant une petite amie également générée par le – ils deviennent également viraux.
Plus de bois pour la théorie de l’Internet mort. Il a été de parler de la façon dont la présence croissante de robots sur Internet finira par faire de la présence humaine dans ce contenu sera marginale. Ce que nous avons déjà vu avec des textes ou des images générés par l’internet Internet maintenant, nous le regardons avec des vidéos des réseaux sociaux inondables ou des avatars virtuels générés par l’IA. La décharge de l’IA s’étend, et la pire chose est que même les utilisateurs – que nous contribuons à rendre ces contenus viraux – ou les entreprises – qui, comme nous l’avons dit, non seulement ne les arrêtent pas, mais les promouvoir également – semblent avoir un plus grand problème avec cette situation.
Image | Kenneth Schipper
Dans Simseo | Meta suit les étapes de X: nous ne travaillons pas seulement à écrire pour elle, maintenant nous allons également travailler la modération