Les gens s’inquiètent du fait que les médias utilisent l’IA pour des reportages importants, mais cela l’est moins pour le sport et le divertissement.
Les progrès de l’intelligence artificielle (IA) bouleversent de nombreux aspects de la vie moderne, et l’industrie de l’information ne fait pas exception. Au cours d'une année marquée par un nombre record d'élections dans le monde, une réflexion considérable a été menée sur l'effet potentiel des soi-disant « deepfakes » et autres contenus synthétiques sur les démocraties. Les modèles économiques et la confiance qui sous-tendent le journalisme indépendant ont également été perturbés.
La plupart des publics commencent tout juste à se forger une opinion sur l'IA et l'actualité, mais dans l'enquête Digital News Report de cette année, que nous avons réalisée à l'Institut Reuters pour l'étude du journalisme de l'Université d'Oxford, nous avons inclus des questions sur le sujet dans 28 marchés, appuyées par avec des entretiens approfondis au Royaume-Uni, aux États-Unis et au Mexique.
Nos résultats révèlent un niveau élevé d’ambivalence quant à l’utilisation de ces technologies. Ils offrent également des informations aux éditeurs qui cherchent à mettre en œuvre ces technologies sans éroder davantage la confiance dans l’information, qui a chuté dans de nombreux pays ces dernières années.
Il est important de garder à l’esprit que la sensibilisation à l’IA est encore relativement faible, avec environ la moitié de notre échantillon (49 % dans le monde et 56 % au Royaume-Uni) ayant lu peu ou rien à ce sujet. Cependant, les préoccupations concernant l’exactitude des informations et le potentiel de désinformation arrivent en tête de liste lorsque l’on parle à ceux qui sont mieux informés.
Les images et vidéos manipulées, par exemple autour de la guerre à Gaza, sont de plus en plus courantes sur les réseaux sociaux et sèment déjà la confusion. Comme l'a déclaré un participant : « J'ai déjà vu de nombreux exemples auparavant, et ils peuvent parfois être très bons. Heureusement, ils sont encore assez faciles à détecter, mais d'ici cinq ans, ils seront impossibles à distinguer. »
Certains participants ont estimé que l’utilisation généralisée des technologies d’IA générative – celles qui peuvent produire du contenu pour les utilisateurs sous forme de texte, d’images et de vidéo – rendrait probablement plus difficile l’identification de la désinformation, ce qui est particulièrement inquiétant lorsqu’il s’agit de sujets importants, tels que la politique et les élections.
Dans 47 pays, 59 % se disent inquiets de pouvoir distinguer ce qui est vrai et faux sur Internet, soit une hausse de trois points de pourcentage par rapport à l'année dernière. D'autres ont adopté un point de vue plus optimiste, soulignant que ces technologies pourraient être utilisées pour fournir un contenu plus pertinent et plus utile.
Utilisation de l'IA par l'industrie de l'information
L’industrie de l’information se tourne vers l’IA pour deux raisons. Premièrement, ils espèrent que l’automatisation des processus en coulisses tels que la transcription, la révision et la mise en page réduira les coûts. Deuxièmement, les technologies d’IA pourraient contribuer à personnaliser le contenu lui-même, le rendant ainsi plus attrayant pour le public.
Au cours de l’année dernière, nous avons vu des entreprises de médias déployer toute une gamme de solutions d’IA, avec différents degrés de surveillance humaine, allant des résumés et illustrations générés par l’IA aux histoires écrites par des robots IA et même par des lecteurs de nouvelles générés par l’IA.
Que pense le public de tout cela ? Sur 28 marchés, les répondants à notre enquête étaient pour la plupart mal à l'aise avec l'utilisation de l'IA lorsque le contenu est créé principalement par l'IA avec une certaine surveillance humaine. En revanche, il y a moins d’inconfort lorsque l’IA est utilisée pour aider les journalistes (humains), par exemple à transcrire des interviews ou à résumer des documents à des fins de recherche.
Ici, les répondants sont globalement plus à l’aise qu’inconfortables. Cependant, nous observons des différences au niveau des pays, peut-être liées aux signaux que les médias nous transmettent. La couverture médiatique britannique de l’IA, par exemple, a été qualifiée de largement négative et sensationnaliste, tandis que les récits des médias américains sont façonnés par le rôle de premier plan des entreprises américaines et les opportunités d’emploi et de croissance.
L’aisance avec l’IA est également étroitement liée à l’importance et à la gravité du sujet abordé. Les gens disent qu'ils se sentent moins à l'aise avec les informations générées par l'IA sur des sujets tels que la politique et la criminalité, et plus à l'aise avec les informations sur le sport ou le divertissement, des sujets sur lesquels les erreurs ont tendance à avoir des conséquences moins graves.
« Les chatbots ne devraient vraiment pas être utilisés pour des informations plus importantes comme la guerre ou la politique, car la désinformation potentielle pourrait être la raison pour laquelle quelqu'un vote pour un candidat plutôt qu'un autre », nous a déclaré un homme de 20 ans au Royaume-Uni.
Nos recherches montrent également que les personnes qui ont tendance à faire confiance aux informations en général sont plus susceptibles d'être à l'aise avec les utilisations de l'IA où les humains (journalistes) gardent le contrôle, par rapport à celles qui ne le font pas. En effet, ceux qui ont tendance à faire confiance aux informations ont également tendance à avoir davantage confiance dans la capacité des éditeurs à utiliser l’IA de manière responsable.
Les entretiens que nous avons menés montrent une tendance similaire au niveau de médias spécifiques : les personnes qui font confiance à des agences de presse spécifiques, en particulier celles qu’elles décrivent comme les plus réputées, ont également tendance à être plus à l’aise avec l’utilisation de l’IA.
D’un autre côté, les publics qui sont déjà sceptiques ou cyniques à l’égard des agences de presse risquent de voir leur confiance encore plus érodée par la mise en œuvre de ces technologies.
Comme l'a dit une femme américaine : « Si une agence de presse était surprise en train d'utiliser de fausses images ou vidéos de quelque manière que ce soit, elle devrait être tenue pour responsable et je perdrais confiance en elle, même si elle était transparente quant à la création du contenu. avec l'IA. »
Réfléchir soigneusement au moment où la divulgation est nécessaire et à la manière de la communiquer, en particulier au début, lorsque l’IA est encore étrangère à de nombreuses personnes, sera un élément crucial pour maintenir la confiance. C’est particulièrement vrai lorsque l’IA est utilisée pour créer de nouveaux contenus avec lesquels le public entrera en contact direct. Nos entretiens nous disent que c’est ce dont le public se méfie le plus.
Dans l’ensemble, nous n’en sommes qu’aux premiers stades de l’utilisation de l’IA par les journalistes, mais cela en fait une période de risque maximum pour les agences de presse. Nos données montrent que le public reste profondément ambivalent quant à l'utilisation de ces technologies, ce qui signifie que les éditeurs doivent être extrêmement prudents quant à l'endroit et à la manière dont ils les déploient.
Des inquiétudes plus larges concernant l’inondation de contenus synthétiques sur les plateformes en ligne signifient que les marques de confiance qui utilisent les technologies de manière responsable pourraient être récompensées. Mais si les choses se trompent, cette confiance pourrait être facilement perdue.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.