Le rapport révèle la méfiance du public et les préoccupations éthiques

Le rapport révèle la méfiance du public et les préoccupations éthiques

Un nouveau rapport de l’industrie a révélé que les publics et les journalistes se sont de plus en plus préoccupés par l’intelligence artificielle générative (IA) dans le journalisme.

Résumant trois ans de recherche, le rapport sur l’IA et le journalisme génératif dirigé par RMIT a été lancé au ARC Center of Excellence for Automated Decision et Society aujourd’hui.

L’auteur principal du rapport, le Dr TJ Thomson de l’Université RMIT à Melbourne, en Australie, a déclaré que le potentiel du contenu généré ou édité par l’IA pour induire ou tromper le plus d’intégration de l’AI était le plus préoccupant.

« La préoccupation de l’IA utilisée pour répandre un contenu trompeur ou trompeur a dépassé la liste des défis pour les journalistes et les publics », a-t-il déclaré.

« Nous avons constaté que les journalistes sont mal équipés pour identifier le contenu généré par l’IA ou édité, les laissant ouverts pour propulser sans le savoir ce contenu à leur public. »

Cela est dû en partie au fait que peu de salles de rédaction ont des processus systématiques en place pour vérifier le matériel visuel généré par les utilisateurs ou la communauté.

La plupart des journalistes interrogés n’étaient pas conscients de la mesure dans laquelle l’IA est de plus en plus et souvent invisible dans les caméras et les logiciels d’édition et de traitement vidéo ou vidéo.

« L’IA est parfois utilisée sans que les journalistes ou les actualités le sachaient », a déclaré Thompson.

Alors que un quart des actualités du public interrogé pensaient qu’ils avaient rencontré une IA générative en journalisme, environ la moitié n’étaient pas sûres ou soupçonnées qu’elles avaient.

« Cela indique un manque potentiel de transparence des organismes de presse lorsqu’ils utilisent une IA générative ou un manque de confiance entre les médias et le public », a déclaré Thomson.

Les publics de nouvelles se sont révélés plus à l’aise avec les journalistes utilisant l’IA alors qu’ils l’ont eux-mêmes utilisé à des fins similaires, par exemple pour brouiller les parties d’une image.

« Les personnes que nous avons interrogées ont mentionné comment ils utilisaient des outils similaires lorsqu’ils sont sur des applications de vidéoconférence ou lors de l’utilisation du mode portrait sur les smartphones », a déclaré Thomson.

« Nous avons également trouvé cela avec des journalistes utilisant l’IA pour ajouter des mots clés aux médias, car le public avait eux-mêmes expérimenté l’IA décrivant des images dans le logiciel de traitement de texte. »

Thomson a déclaré que le public et les journalistes de nouvelles se préoccupaient globalement de la façon dont les organisations de presse sont – et pourraient l’être – en utilisant une IA générative.

« La plupart de nos participants étaient à l’aise de se tourner vers l’IA pour créer des icônes pour une infographie mais assez mal à l’aise avec l’idée d’un avatar d’IA présentant les nouvelles, par exemple », a-t-il déclaré.

Problème de partie, partie partielle

La technologie, qui a considérablement progressé ces dernières années, s’est avérée être à la fois une opportunité et une menace pour le journalisme.

Par exemple, Apple a récemment suspendu sa fonctionnalité de notification d’actualités générée automatiquement après avoir produit de fausses réclamations concernant des personnes de haut niveau, y compris de faux décès et des arrestations, et a attribué ces fausses prétentions à des points de vente réputés, y compris BBC News et le New York Times.

Bien que l’IA puisse effectuer des tâches telles que le tri et la génération de légendes pour les photographies, il a des préjugés bien connus contre, par exemple, les femmes et les personnes de couleur.

Mais la recherche a également identifié des préjugés moins connus, tels que la priorité urbaine par rapport aux environnements non urbains, montrant les femmes moins souvent dans des rôles plus spécialisés et ignorant les personnes vivant avec handicap.

« Ces biais existent en raison de biais humains ancrés dans les données de formation et / ou des biais conscients ou inconscients de ceux qui développent des algorithmes et des modèles d’IA », a déclaré Thomson.

Mais tous les outils d’IA ne sont pas égaux. L’étude a révélé que celles qui expliquent leurs décisions, divulguent leur matériel source et garantissent la transparence des résultats en ce qui concerne leur utilisation est moins risqué pour les journalistes par rapport aux outils qui n’ont pas ces caractéristiques.

Les journalistes et les membres du public étaient également préoccupés par le remplacement de l’IA génératrice des humains dans les salles de rédaction, ce qui a conduit à moins d’emplois et de compétences dans l’industrie.

« Ces craintes reflètent une longue histoire de technologies ayant un impact sur les forces du travail humain dans la production de journalisme », a déclaré Thompson.

Le rapport, conçu pour l’industrie des médias, identifie des dizaines de façons dont les journalistes et les organisations de presse peuvent utiliser une IA générative et résument à quel point le public des nouvelles est confortable avec chacun.

Il résume plusieurs des études de recherche de l’équipe, y compris la dernière étude, publiée dans Pratique du journalisme.