L'identifiant AI d'OpenAI a un problème : ils mettent le renard et ils surveillent les poulets

L’UE a une idée pour résoudre l’un des gros problèmes de l’IA : balisez votre contenu généré

Il y a quelques jours, quelques images de l’arrestation présumée de Donald Trump par la police ont fait le tour du monde. La vérité est qu’ils ont tous été créés à l’aide de Midjourney, une IA génératrice d’images. Ce week-end, quelque chose de similaire s’est produit avec une photo du Le pape François vêtu d’un manteau de plumes de Balenciaga, qui se trouvait également être un faux profond. Emmanuel Macron a également été victime de cas similaires.

Un des problèmes causés par les IA génératrices d’images et le texte est qu’il est pratiquement impossible de distinguer si le contenu a été généré par une application ou par un humain. Et c’est quelque chose que la Commission européenne a décidé de résoudre.

Un avertissement « Made by AI ». Afin qu’il n’y ait pas de confusion possible, l’UE veut établir, de manière obligatoire, que la quasi-totalité des contenus générés par l’IA être averti par une étiquette. « Dans tout ce qui est généré par l’intelligence artificielle, qu’il s’agisse de texte ou d’images, il y aura une obligation de notifier qu’il a été créé par l’intelligence artificielle », a déclaré le commissaire au marché intérieur, Thierry Breton.

« Les gens doivent être informés qu’ils ont affaire à un chatbot et non à un être humain. La transparence est également importante en ce qui concerne le risque de biais et de désinformation », Breton expliquéqui s’attend à ce que le Parlement vote ce mois-ci une nouvelle proposition de règlement limitant les technologies émergentes.

Comment ça marche? Plus précisément, ces applications doivent informer les utilisateurs qu’ils utilisent et interagissent avec un système d’IA, à moins que ce ne soit quelque chose de très évident, et aussi s’ils utilisent des systèmes de reconnaissance émotionnelle ou de catégorisation biométrique. Aussi, tout contrefaçons profondes qui imitent la voix ou l’apparence d’une personne doivent porter une étiquette ou un filigrane indiquant ce qu’ils sont. Mais attention, car cela ne s’appliquerait qu’aux différentes catégories de risques que nous allons détailler maintenant.

Classer en catégories selon les risques. Le nouveau règlement européen propose d’établir quatre types de « risques » pour déterminer les réglementations qui affectent chaque IA, d’après cet article d’EL PAÍS. Dans la catégorie « inacceptable » se trouvent les applications qui permettent, comme en Chine, le soi-disant scores sociauxle système de notation sociale qui détermine la crédibilité ou la réputation d’une personne en fonction de ses données en ligne. Dans la catégorie « risque élevé », se trouveraient les technologies qui doivent être soumises à certaines exigences légales, telles que celles qui évaluer les candidats par leur CV ou applications médicales.

Dans la troisième catégorie se trouveront les « IA avec des obligations de transparence spécifiques », qui incluent des bots tels que ChatGPT. Enfin, la catégorie de risque « minime ou inexistant » contient les IA qui seront autorisées sans aucune restriction.

L’Europe se durcit. Lorsque Bruxelles a présenté son premier règlement en avril 2021, toute la vague récente d’outils d’IA générative que nous avons aujourd’hui, comme ChatGPT ou GPT-4, n’était pas encore arrivée. C’est pourquoi l’UE veut se ressaisir au plus vite et faire face à tous les risques liés à ces technologies. Selon des sources parlementaires, il a à son ordre du jour la présentation du plan et son vote en plénière la dernière semaine d’avril.

« Comme le montre ChatGPT, les solutions d’IA peuvent offrir de grandes opportunités pour les entreprises et les citoyens, mais elles peuvent également présenter des risques. C’est pourquoi nous avons besoin d’un cadre réglementaire solide pour garantir une IA fiable basée sur des données de qualité », a noté Breton.

préoccupation dans le secteur. La législation à venir a été critiquée, comme il fallait s’y attendre, par les entreprises concernées, qui affirment qu’une réglementation plus stricte pourrait mettre un terme à la course à l’innovation et au progrès menée ces jours-ci. Mais surtout ils craignent que leurs outils entrent dans la catégorie IA « à haut risque »ce qui entraînerait des exigences plus strictes et des coûts plus élevés. Une enquête Une étude récente a suggéré que 51 % des développeurs s’attendent à un ralentissement de leurs activités en raison de la nouvelle loi européenne sur l’IA. Il faudra attendre encore un peu pour voir son effet réel.

Images : Photos générées par l’application MidJourney AI

À Simseo | « Nous nous trompons »: l’IA d’OpenAI était trop ouverte, donc GPT-4 est totalement secret