Google dit qu’il développe des outils pour aider les journalistes à créer des titres, des histoires
Google dit qu’il en est aux premiers stades du développement d’outils d’intelligence artificielle pour aider les journalistes à écrire des articles et des titres, et a discuté de ses idées avec des leaders de l’industrie de l’information.
La technologie en évolution rapide suscite déjà des inquiétudes quant à savoir si on peut lui faire confiance pour fournir des rapports précis et si cela conduirait éventuellement à la perte de leur emploi par des journalistes humains dans une industrie qui souffre déjà financièrement.
Les dirigeants du New York Times, du Washington Post et de News Corp., propriétaires du Wall Street Journal, ont été informés de ce sur quoi Google travaille, a rapporté jeudi le Times.
Google, dans une déclaration préparée, a déclaré que les outils améliorés par l’intelligence artificielle pourraient aider à donner aux journalistes des options pour les titres ou différents styles d’écriture lorsqu’ils travaillent sur une histoire, la caractérisant comme un moyen d’améliorer le travail et la productivité.
« Ces outils ne sont pas destinés à, et ne peuvent pas, remplacer le rôle essentiel que jouent les journalistes dans le reportage, la création et la vérification des faits de leurs articles », a déclaré Google.
L’Associated Press, qui ne commenterait pas jeudi ce qu’elle sait de la technologie de Google, utilise une forme plus simple d’intelligence artificielle dans certains de ses travaux depuis environ une décennie. Par exemple, il utilise l’automatisation pour aider à créer des histoires sur les résultats sportifs de routine et les bénéfices des entreprises.
Un débat sur la manière d’appliquer les derniers outils d’écriture d’IA recoupe les préoccupations des organes de presse et d’autres professions quant à savoir si les entreprises technologiques les rémunèrent équitablement pour utiliser leurs travaux publiés afin d’améliorer les systèmes d’IA connus sous le nom de grands modèles de langage.
Pour construire des systèmes d’IA capables de produire des œuvres d’écriture de type humain, les entreprises technologiques ont dû ingérer de grandes quantités d’œuvres écrites, telles que des articles de presse et des livres numérisés. Toutes les entreprises ne divulguent pas les sources de ces données, dont certaines sont extraites d’Internet.
La semaine dernière, AP et OpenAI, fabricant de ChatGPT, ont annoncé un accord pour que la société d’intelligence artificielle accorde une licence aux archives d’actualités d’AP remontant à 1985. Les conditions financières n’ont pas été divulguées.
Les chatbots tels que ChatGPT et le propre Bard de Google font partie d’une classe d’outils d’IA dits génératifs qui sont de plus en plus efficaces pour imiter différents styles d’écriture, ainsi que l’art visuel et d’autres médias. De nombreuses personnes les utilisent déjà pour gagner du temps pour rédiger des e-mails et d’autres documents de routine ou pour aider aux devoirs.
Cependant, les systèmes sont également susceptibles de diffuser des mensonges que les personnes peu familières avec un sujet pourraient ne pas remarquer, ce qui les rend risqués pour des applications telles que la collecte d’informations ou la dispense de conseils médicaux.
Google a toujours fait preuve d’une certaine prudence dans l’application de ses avancées en matière d’IA, y compris dans son moteur de recherche phare sur lequel les utilisateurs s’appuient pour afficher des informations précises. Mais la fascination du public pour ChatGPT après sa sortie à la fin de l’année dernière a poussé les entreprises technologiques à présenter de nouveaux produits et services d’IA.
Dans un monde idéal, une technologie comme Google en parle peut ajouter des informations importantes au monde, a déclaré Kelly McBride, experte en éthique du journalisme pour le Poynter Institute. Cela pourrait documenter les réunions publiques où il n’y a plus de journalistes humains pour assister et créer des récits sur ce qui se passe, a-t-elle déclaré.
Mais il est probable que la technologie progressera plus rapidement qu’un nouveau modèle commercial prenant en charge les informations locales, créant la tentation de remplacer les journalistes humains par des outils d’IA, a-t-elle déclaré.
Les organisations de journalisme doivent envisager la possibilité que la technologie, en particulier à ses débuts, puisse être responsable de la création d’erreurs, et les dommages à la réputation peuvent être plus importants que les avantages financiers que son utilisation peut apporter.
« Je ne pense pas qu’il y aura une seule explosion éthique qui gâchera tout », a déclaré McBride. « Au lieu de cela, je pense qu’il s’agira davantage d’une érosion de la qualité et d’un tas de petites choses qui érodent la confiance dans les médias. »
Les organes de presse sont à un moment critique où ils peuvent utiliser les éléments dont les entreprises technologiques ont besoin – comme l’accès aux informations archivées – et créer une structure financière qui ne penche pas trop en direction d’entreprises comme Google, a-t-elle déclaré. L’histoire n’est pas forcément de leur côté.
« C’est un tout nouveau niveau de menace », a-t-elle dit, « et ce n’est pas comme si nous pouvions faire marche arrière. »