Ce que les nouvelles COVID générées par l'IA nous disent que les journalistes ne savent pas

Ce que les nouvelles COVID générées par l’IA nous disent que les journalistes ne savent pas

Crédit : domaine public Unsplash/CC0

L’IA peut aider à identifier les biais dans les reportages que nous ne verrions pas autrement. Des chercheurs de l’Université McGill ont récemment dirigé un programme informatique pour générer une couverture médiatique de COVID-19 en utilisant les titres des articles de CBC comme invites. Ils ont ensuite comparé la couverture médiatique simulée aux reportages réels à l’époque et ont constaté que la couverture de CBC était moins axée sur l’urgence médicale et plus positivement axée sur les personnalités et la géopolitique.

« Le reportage sur des événements du monde réel nécessite des choix complexes, y compris des décisions sur les événements et les acteurs qui occupent le devant de la scène. En comparant ce qui a été rapporté avec ce qui aurait pu l’être, notre étude fournit une perspective sur les choix éditoriaux faits par les agences de presse », déclare le professeur Andrew Piper du Département de langues, littératures et cultures de l’Université McGill. Selon les chercheurs, l’évaluation de ces alternatives est essentielle compte tenu de la relation étroite entre le cadrage médiatique, l’opinion publique et la politique gouvernementale.

« L’IA considérait le COVID-19 principalement comme une urgence sanitaire et interprétait les événements en termes plus biomédicaux, alors que la couverture de CBC avait tendance à se concentrer sur la personne plutôt que sur les reportages centrés sur la maladie. La couverture de CBC était également plus positive que prévu étant donné que c’était une crise sanitaire majeure – produisant une sorte de rassemblement autour de l’effet drapeau. Cette positivité contribue à minimiser la peur du public », dit-il.

Explorer comment les préjugés se manifestent

Alors que de nombreuses études cherchent à comprendre les biais inhérents à l’IA, il existe également une opportunité de l’exploiter comme un outil pour révéler les biais de l’expression humaine, affirment les chercheurs. « L’objectif est de nous aider à voir des choses que nous aurions pu manquer autrement », explique le professeur Piper.

« Nous ne suggérons pas que l’IA elle-même est impartiale. Mais plutôt que d’éliminer les biais, comme de nombreux chercheurs essaient de le faire, nous voulons comprendre comment et pourquoi les biais se produisent », déclare Sil Hamilton, assistant de recherche et étudiant travaillant sous la direction du professeur Piper.

L’étude est publiée dans Anthologie ACL.

Utiliser l’IA pour comprendre le passé, et un jour anticiper l’avenir

Pour les chercheurs, ce travail n’est que la pointe de l’iceberg, ouvrant de nouvelles voies d’étude où l’IA peut être utilisée non seulement pour examiner le comportement humain passé, mais aussi pour anticiper les actions futures, par exemple en prévoyant des résultats politiques ou judiciaires potentiels.

L’équipe de recherche travaille actuellement sur un projet utilisant l’IA pour modéliser le processus décisionnel de la Cour suprême américaine dirigé par Hamilton. « Compte tenu du comportement judiciaire passé, comment les juges pourraient-ils réagir aux futures affaires cruciales ou aux affaires plus anciennes qui font l’objet de nouveaux litiges ? Nous espérons que les nouveaux développements de l’IA pourront aider », dit-il.

Fourni par l’Université McGill