Il existe désormais une norme permettant de facturer aux entreprises la suppression du site Web.

Il existe désormais une norme permettant de facturer aux entreprises la suppression du site Web.

Lorsqu’on utilise Gemini, ChatGPT ou Grok, il est facile de penser que cette capacité à produire des résultats en quelques secondes frise l’extraordinaire, même avec ses défauts communs. Mais il n’y a pas de mystère : ils dépendent de modèles entraînés avec d’énormes quantités d’informations. Ce processus a déclenché un débat de plus en plus intense sur la manière dont tout ce contenu est utilisé et sur l’étendue du contrôle exercé par ceux qui le génèrent. Dans ce climat apparaît une proposition qui tente de ramener un peu d’ordre.

Extraction massive de contenu. La croissance accélérée de l’IA a mis en lumière le phénomène susmentionné. Les entreprises utilisent des trackers propriétaires et des ensembles de données tiers qui regroupent des éléments provenant de milliers de sites Web. Pour les éditeurs, le problème n’est pas seulement l’échelle, mais aussi le manque de transparence sur ce qui est collecté, comment cela est utilisé et qui en profite. L’affrontement entre ces intérêts a alimenté les revendications et les débats sur l’équilibre entre innovation et droit d’auteur.

Qu'est-ce que RSL 1.0. Arrive désormais RSL 1.0, un standard ouvert conçu pour permettre aux éditeurs d'exprimer, sous une forme lisible par machine, comment leur contenu doit être utilisé à l'ère de l'IA. L'initiative émane du RSL Collective et du RSL Technical Steering Committee, auxquels participent des sociétés Internet, des médias et des organismes de normalisation tels que Yahoo, Ziff Davis et O'Reilly Media. L’objectif est que les médias puissent définir des règles transparentes d’utilisation et de licence que les systèmes d’IA doivent respecter.

Une norme de fonctionnement. Ici apparaît le fichier robots.txt, qui a été l'outil fondamental pour guider les robots d'exploration du Web, en autorisant ou en refusant l'accès à certains itinéraires d'un site. Cette simplicité a été utile pendant des années, même si elle n’envisageait pas d’utilisations spécifiques telles que la formation de modèles d’IA. RSL 1.0 va plus loin et décrit des autorisations différenciées à travers des catégories telles que « ai-input », conçue pour la formation, ou « ai-index », liée à l'indexation classique. La catégorie « ai-all » permet de bloquer toute utilisation liée à l’IA.

L'idée est qu'avec ce système, les éditeurs peuvent définir des limites spécifiques sans perdre en visibilité dans les moteurs de recherche. Les règles sont toujours simples, mais désormais beaucoup plus informatives.

Résoudre une limitation clé. Jusqu'à présent, selon les promoteurs de l'initiative, un éditeur qui souhaite éviter cette utilisation doit accepter que son contenu cesse également d'apparaître dans la recherche traditionnelle, car Google ne propose pas d'option individuelle pour séparer les deux domaines. Pour les cofondateurs du RSL Collective, « RSL apporte exactement cette couche qui manquait », en permettant un contrôle indépendant entre les deux utilisations.

Chatbots

Le modèle contributif. L'une des nouveautés les plus notables de RSL 1.0 est le système de « contribution », conçu pour que les créateurs et les organisations à but non lucratif puissent exiger des contributions des systèmes d'IA qui utilisent leur matériel. L'initiative a été développée en collaboration avec Creative Commons et vise à renforcer la durabilité des communs numériques, qui rassemblent des milliards de ressources ouvertes sur le Web. Sa directrice exécutive, Anna Tumadóttir, souligne qu’« il est essentiel qu’il existe des options de partage équitable au-delà des licences commerciales, afin de continuer à soutenir les biens communs et à protéger l’accès au savoir à l’ère de l’IA ».

Large adoption. La sortie de RSL 1.0 a généré un soutien notable de la part des éditeurs, des plateformes et des organismes techniques, ainsi que celui des fournisseurs d'infrastructure tels que Cloudflare, Akamai et Fastly. Leur implication est pertinente car ces services peuvent appliquer directement les règles que définissent les éditeurs.

Si quelqu’un pensait que l’Europe n’avait aucun rôle dans la course à l’IA, Mistral a quelque chose à lui dire.

Désormais, bien que RSL 1.0 introduit un cadre plus clair pour exprimer les règles d’utilisation, il ne résout pas tous les problèmes posés par la formation des modèles d’IA. La norme s'appuie sur des trackers pour la suivre et sur des fournisseurs d'infrastructures pour la faire respecter, de sorte que les entreprises qui ignorent ces signaux pourraient continuer à collecter du contenu sans autorisation. On ne sait pas non plus comment cela affectera les petits éditeurs qui n’ont pas les ressources nécessaires pour négocier avec les grandes plateformes.

Les progrès de l’IA ont changé la façon dont nous interagissons avec l’information, même si nous oublions souvent que derrière ces résultats rapides se cachent du contenu créé par des millions de personnes. Il faudra attendre de voir si RSL 1.0 équilibrera les règles du jeu.

Images | Simseo avec Gemini 3 Pro | Solen Feyissa

À Simseo | McDonald's n'a pas appris de Coca-Cola et a présenté une publicité de Noël réalisée avec l'IA. Les réactions ont été encore pires