Les faux pas d’Apple mettent en évidence les risques d’IA produisant des titres automatisés, dit le chercheur
« Luigi Mangione se tire dessus », a lu le titre de BBC News.
À l’exception de Mangione, l’homme accusé du meurtre du PDG de UnitedHealthcare, Brian Thompson, n’avait rien fait de tel. Et la BBC n’avait pas non plus signalé cela – mais pourtant, c’était le titre qu’Apple Intelligence avait affiché à ses utilisateurs dans le cadre d’un résumé des notifications.
Il s’agissait de l’une des nombreuses erreurs de haut niveau commises par le logiciel alimenté par l’intelligence artificielle qui a conduit au géant de la technologie en susmenant la fonctionnalité des notifications dans Apple Intelligence en ce qui concerne les catégories d’actualités et de divertissement.
Anees Baqir dit que la propagation accidentelle de la désinformation par une telle source d’IA « posait un risque important en érodant la confiance du public ».
Le professeur adjoint de science des données à la Northeastern University à Londres, qui fait des recherches sur la désinformation en ligne, affirme que des erreurs comme celles commises par Apple Intelligence étaient susceptibles de « créer une confusion » et auraient pu amener les consommateurs de nouvelles à douter des marques de médias qu’ils avaient auparavant fait confiance.
« Imaginez ce que cela pourrait faire à l’opinion des gens s’il y a un contenu lié à la désinformation provenant d’une source d’informations très médiatisée qui est généralement considérée comme une source d’information fiable », a déclaré Baqir. « Cela pourrait être vraiment dangereux, à mon avis. »
L’épisode avec Apple Intelligence a déclenché un débat plus large en Grande-Bretagne sur la question de savoir si les logiciels génératifs de l’IA génératrices publics publics sont capables de résumer et de comprendre avec précision les articles de presse.
La directrice générale de BBC News, Deborah Turness, a déclaré que, bien que l’IA apporte des « opportunités sans fin », les entreprises qui développent les outils « jouent actuellement avec le feu ».
Il y a des raisons pour lesquelles une IA générative comme Apple Intelligence peut ne pas toujours les réaliser en ce qui concerne les reportages, explique Mariana Macedo, scientifique des données de Northeastern.
Lors du développement d’une IA générative, les «processus ne sont pas déterministes, ils ont donc une certaine stochasticité», explique le professeur adjoint basé à Londres, ce qui signifie qu’il peut y avoir un hasard au résultat.
« Les choses peuvent être écrites d’une manière que vous ne pouvez pas prédire », explique-t-elle. « C’est comme quand vous évoquez un enfant.
« L’enfant sait ce qui va être bien ou mal plus ou moins, mais l’enfant ne sait pas tout. L’enfant n’a pas toute l’expérience ou les connaissances pour réagir et créer de nouvelles actions d’une manière parfaite. C’est la même chose avec l’IA et les algorithmes. »
Macedo dit que le problème avec les nouvelles et l’apprentissage de l’IA est que les nouvelles concernent principalement des choses qui viennent de se produire – il n’y a que peu ou pas de contexte passé pour aider le logiciel à comprendre les rapports qu’il est demandé de résumer.
« Lorsque vous parlez de nouvelles, vous parlez de choses nouvelles », poursuit le chercheur. «Vous ne parlez pas de choses que nous connaissons depuis une longue période.
« L’IA est très bonne dans les choses qui sont bien établies dans la société. L’IA ne sait pas quoi faire en ce qui concerne les choses contradictoires ou nouvelles. Donc, chaque fois que l’IA n’est pas formée avec suffisamment d’informations, cela va se tromper encore plus. »
Pour garantir la précision, Macedo soutient que les développeurs doivent « trouver un moyen de vérifier automatiquement ces informations » avant sa publication.
Permettre à l’IA d’apprendre des articles de presse en leur formation pourrait également signifier qu’ils sont « plus susceptibles d’améliorer » leur précision, dit Macedo.
La BBC empêche actuellement les développeurs d’utiliser son contenu pour former des modèles d’IA génératifs. Mais d’autres médias britanniques ont pris des mesures pour collaborer, avec des accords de partenariat entre le Financial Times et OpenAI, permettant aux utilisateurs de Chatgpt de voir des résumés, des citations et des liens attribués.
Baqir suggère que les entreprises technologiques, les organisations médiatiques et les régulateurs de communication collaboraient pourraient être le meilleur moyen de faire face au problème de désinformation des nouvelles de l’IA.
« Je pense qu’ils doivent tous se réunir », dit-il. « Ce n’est qu’alors que nous pouvons trouver un moyen qui peut nous aider à atténuer ces impacts. Il ne peut y avoir une seule solution. »