De nombreuses IA vidéo apprennent à imiter le monde. Et tout laisse présager un « pillage » sans précédent de YouTube

De nombreuses IA vidéo apprennent à imiter le monde. Et tout laisse présager un « pillage » sans précédent de YouTube

Une place, des touristes, un serveur circulant entre les tables, un vélo qui passe en arrière-plan ou un journaliste sur un plateau. Les IA vidéo peuvent désormais générer des scènes en un éclair. Le résultat est surprenant, mais il ouvre aussi une question qui, jusqu'à récemment, était à peine posée : d'où venaient toutes ces images qui leur ont permis d'apprendre à imiter le monde ? Selon The Atlantic, une partie de la réponse renvoie à des millions de vidéos extraites de plateformes comme YouTube sans consentement clair.

L’euphorie suscitée par l’IA générative s’est propagée si rapidement que de nombreuses questions ont été laissées de côté. En seulement deux ans, nous sommes passés de curieuses petites expériences à des modèles produisant des vidéos presque impossibles à distinguer de la réalité. Et tandis que l’accent était mis sur les manifestations, un autre sujet prenait du poids : la transparence. OpenAI, par exemple, a expliqué que Sora est formé avec des données « accessibles au public », mais n'a pas précisé lesquelles.

Un entraînement massif qui pointe vers YouTube

L’article d’Atlantic donne une idée claire de ce qui se passait dans les coulisses. Nous parlons de plus de 15 millions de vidéos collectées pour entraîner des modèles d’IA, dont une énorme quantité provenant de YouTube sans autorisation formelle. Parmi les initiatives citées figurent des ensembles de données associés à plusieurs entreprises, conçus pour améliorer les performances des générateurs vidéo. Selon les médias, ce processus a été effectué sans en informer les créateurs qui ont initialement publié ce contenu.

L’un des aspects les plus frappants de la découverte est le profil du matériau concerné. Il ne s’agissait pas seulement de vidéos anonymes ou d’enregistrements personnels, mais aussi de contenus informatifs et de productions professionnelles. Les médias ont découvert que des milliers d'articles provenaient de chaînes appartenant à des publications telles que le New York Times, la BBC, The Guardian, le Washington Post ou Al Jazeera. Dans l’ensemble, nous parlons d’un énorme volume de journalisme qui aurait fini par alimenter les systèmes d’IA sans accord préalable avec leurs propriétaires.

Runway, l'une des sociétés qui ont donné le plus d'impulsion à la vidéo générative, est mise en évidence dans les ensembles de données examinés. Selon les documents cités, leurs modèles auraient appris avec des clips organisés par type de scène et de contexte : interviews, explicatifs, pièces graphiques, plans de cuisine, plans de ressources. L’idée est claire : si l’IA doit reproduire des situations humaines et des récits audiovisuels, elle a besoin de véritables références qui couvrent tout, des gestes jusqu’aux rythmes de montage.

Vidéo de la piste

Fragments d'une vidéo générée avec l'outil Runway

Outre Runway, la recherche mentionne des ensembles de données utilisés dans les laboratoires de grandes plateformes technologiques telles que Meta ou ByteDance dans la recherche et le développement de leurs modèles. La dynamique était similaire : d’énormes volumes de vidéos collectées sur Internet et partagées entre équipes de recherche pour améliorer les capacités audiovisuelles.

La position officielle de YouTube ne laisse pas beaucoup de place à l'interprétation. Sa réglementation interdit le téléchargement de vidéos pour entraîner des mannequins, et son PDG, Neal Mohan, l'a réitéré en public. Les attentes des créateurs, a-t-il souligné, impliquent que leurs contenus soient utilisés dans le cadre des règles du service. L’apparition de millions de vidéos dans les bases de données d’IA a mis ce cadre juridique au premier plan et a intensifié la pression sur les plateformes impliquées dans le développement de modèles génératifs.

La réaction du secteur des médias a suivi deux directions. D’une part, des entreprises comme Vox Media ou Prisa ont conclu des accords pour concéder sous licence leurs contenus à des plateformes d’intelligence artificielle, cherchant un cadre clair et une compensation économique. En revanche, certains médias ont choisi de s'opposer : le New York Times a poursuivi OpenAI et Microsoft en justice pour utilisation non autorisée de leurs matériels, soulignant qu'il protégerait également le contenu vidéo qu'il distribue.

Le terrain juridique reste flou. La législation actuelle n’est pas destinée aux modèles traitant des millions de vidéos en parallèle, et les tribunaux commencent encore à tracer les limites. Pour certains experts, publier ouvertement n’équivaut pas à renoncer aux droits de formation, tandis que les entreprises d’IA défendent que l’indexation et l’utilisation de documents publics font partie du progrès technologique. Cette tension, toujours non résolue, maintient les médias et les développeurs dans un jeu d'équilibre constant.

Si vous pensiez que la bulle de l'IA était inquiétante, c'est qu'on n'était pas entré dans sa prochaine phase : la dette

Ce que nous avons devant nous est le début d’une conversation qui va bien au-delà de la technologie. Entraîner des modèles d’IA avec du matériel disponible sur Internet est une pratique répandue depuis des années, et vient maintenant le moment de décider où se situent les limites. Les entreprises promettent des accords et de la transparence, les médias demandent des garanties et les créateurs exigent du contrôle. La prochaine étape sera aussi technologique que politique : la manière dont l’intelligence artificielle sera alimentée définira qui en bénéficiera.

Images | Simseo avec Gémeaux 2.5

À Simseo | Toutes les grandes IA ont ignoré les lois sur le droit d’auteur. Ce qui est étonnant c'est qu'il n'y a toujours aucune conséquence