Les médias devraient-ils vous dire quand ils utilisent l’IA pour rapporter l’actualité ? Ce que les consommateurs devraient savoir
L’intelligence artificielle (IA) transforme le paysage médiatique, tant pour les agences de presse que pour les consommateurs. Des applications telles que ChatGPT, Bard et Bing AI créent de nouvelles possibilités d’aide à la rédaction et à la recherche d’informations, mais elles soulèvent également des préoccupations éthiques.
L’une des questions les plus pressantes pour les agences de presse est de savoir si les consommateurs doivent être informés du moment où ils lisent un article créé ou aidé par l’utilisation de l’IA. Certains, comme le magazine technologique Wired et la BBC, le font déjà, mais d’autres médias ne le font pas.
Il existe plusieurs arguments pour et contre la divulgation de ce type d’informations.
Premièrement, cela contribuerait à garantir la transparence et la responsabilité. Les consommateurs doivent savoir comment les informations qu’ils consomment sont produites et ils doivent être en mesure de faire des choix éclairés quant à savoir s’ils peuvent ou non leur faire confiance.
Deuxièmement, la divulgation pourrait contribuer à atténuer les risques de partialité. Les systèmes d’IA sont formés à l’aide de données, et ces données peuvent refléter les préjugés de ceux qui les ont créés. En conséquence, le contenu généré par l’IA peut parfois être biaisé. En exigeant la divulgation, les consommateurs pourraient être conscients de ce biais potentiel et en tenir compte lors de l’évaluation de l’information.
Troisièmement, la divulgation pourrait contribuer à protéger les consommateurs contre la désinformation . Les systèmes d’IA peuvent être utilisés pour générer de fausses nouvelles, ce qui rend difficile pour les consommateurs de faire la distinction entre les vraies et les fausses nouvelles. En exigeant la divulgation, les consommateurs pourraient être plus sceptiques à l’égard du contenu généré par l’IA et plus susceptibles de le vérifier avant de le partager.
Contre la divulgation
L’une des préoccupations est que cela pourrait étouffer l’innovation. Si les agences de presse sont tenues de divulguer chaque fois qu’elles utilisent l’IA, elles seront peut-être moins susceptibles d’expérimenter cette technologie.
Une autre raison est que la divulgation pourrait prêter à confusion pour les consommateurs. Tout le monde ne comprend pas comment fonctionne l’IA. Certaines personnes peuvent se méfier du contenu généré par l’IA. Exiger la divulgation pourrait rendre plus difficile pour les consommateurs d’obtenir les informations dont ils ont besoin.
Comment les choses pourraient se dérouler
Voici quelques exemples pour illustrer ces préoccupations :
Imaginez qu’un organisme de presse utilise l’IA pour effectuer une vérification des faits en temps réel et des déclarations faites par des personnalités publiques lors d’événements en direct, tels que des débats politiques ou des conférences de presse. Un système d’IA pourrait identifier rapidement les inexactitudes et fournir aux téléspectateurs des informations précises en temps réel.
Cependant, si l’agence de presse devait divulguer à chaque fois l’utilisation de l’IA, cela pourrait conduire à une réticence à déployer un tel outil. La peur de la perception du public et des réactions négatives potentielles pourraient dissuader les médias de tirer parti de l’IA pour améliorer l’exactitude de leurs reportages, privant ainsi le public d’un service précieux.
Un autre scénario implique une curation d’actualités personnalisée basée sur l’IA. De nombreuses plateformes d’information utilisent des algorithmes d’IA pour adapter le contenu d’actualité aux préférences de chaque lecteur, garantissant ainsi qu’il reçoive des informations correspondant à ses intérêts.
Si les agences de presse étaient obligées de divulguer l’utilisation de l’IA dans ce contexte, les lecteurs pourraient se méfier d’une perception de manipulation. Cette appréhension pourrait dissuader les médias d’investir dans la personnalisation basée sur l’IA, limitant ainsi leur capacité à engager et à fidéliser leur public dans un paysage médiatique de plus en plus concurrentiel.
Pour atténuer ces risques, des publications telles que le New York Times proposent des « signatures améliorées » qui incluent plus de détails sur les journalistes derrière les articles et des détails sur la manière dont l’article a été produit.
En fin de compte, la décision d’exiger ou non la divulgation est une question complexe.
Cependant, il est essentiel d’avoir un débat public sur cette question afin que nous puissions élaborer des politiques qui protègent les consommateurs et promeuvent un journalisme responsable, ainsi que maintenir et améliorer la confiance dans le journalisme, qui est en baisse dans certains pays.
Outre la divulgation, les agences de presse peuvent prendre d’autres mesures pour garantir que l’IA est utilisée de manière éthique et responsable. Ils devraient élaborer des lignes directrices claires pour l’utilisation de l’IA. Ces lignes directrices devraient aborder des questions telles que la partialité, la transparence et la responsabilité. Ils devraient investir dans la formation et l’éducation de leur personnel. Les journalistes doivent comprendre comment fonctionne l’IA et comment l’utiliser de manière responsable.
Enfin, les agences de presse devraient travailler avec des groupes hautement informés tels que le Neiman Lab de Harvard, ceux qui travaillent sur les politiques, les entreprises technologiques et les universitaires, pour développer des normes éthiques pour l’utilisation de l’IA et s’attaquer aux problèmes émergents critiques pour l’avenir de l’information d’intérêt public.
L’utilisation d’outils d’IA dans l’actualité constitue une évolution significative. Il est essentiel d’avoir une conversation réfléchie et éclairée sur les avantages et les risques potentiels de cette technologie. En travaillant ensemble, nous pouvons garantir que l’IA est utilisée d’une manière qui sert l’intérêt public et défend les valeurs d’un journalisme responsable.