L’IA sans limites menace la confiance du public : voici quelques lignes directrices pour préserver l’intégrité des communications
Les progrès rapides et l’adoption de l’intelligence artificielle (IA) générative révolutionnent le domaine des communications. Les outils basés sur l'IA peuvent désormais générer du texte, des images, de l'audio et de la vidéo convaincants à partir d'invites textuelles.
Bien que l’IA générative soit puissante, utile et pratique, elle introduit des risques importants, tels que la désinformation, les préjugés et la confidentialité.
L’IA générative a déjà été à l’origine de graves problèmes de communication. Des générateurs d’images IA ont été utilisés lors de campagnes politiques pour créer de fausses photos visant à confondre les électeurs et embarrasser les opposants. Les chatbots IA ont fourni des informations inexactes aux clients et ont porté atteinte à la réputation des organisations.
Des vidéos profondément fausses de personnalités publiques faisant des déclarations incendiaires ou soutenant des actions sont devenues virales. De plus, les profils de réseaux sociaux générés par l’IA ont été utilisés dans des campagnes de désinformation.
Le rythme rapide du développement de l’IA constitue un défi. Par exemple, le réalisme croissant des images générées par l’IA s’est considérablement amélioré, ce qui rend la dissuasion des deepfakes beaucoup plus difficile.
Sans politiques claires en matière d’IA, les organisations courent le risque de produire des communications trompeuses susceptibles d’éroder la confiance du public, ainsi que d’une utilisation abusive potentielle des données personnelles à une échelle sans précédent.
Établir des lignes directrices et une réglementation en matière d’IA
Au Canada, plusieurs initiatives ont été en cours pour développer une réglementation de l’IA selon des réceptions variées. Le gouvernement fédéral a présenté en 2022 une législation controversée qui, si elle est adoptée, définira les moyens de réglementer l’IA et de protéger la confidentialité des données.
La Loi sur l'intelligence artificielle et les données (AIDA), en particulier, a fait l'objet de vives critiques de la part d'un groupe de 60 organisations, dont l'Assemblée des Premières Nations (APN), la Chambre de commerce du Canada et l'Union canadienne des libertés civiles, qui ont demandé son retrait et sa réécriture après une consultation plus approfondie.
Récemment, en novembre 2024, Innovation, Sciences et Développement économique Canada (ISDE) a annoncé la création de l'Institut canadien de sécurité de l'intelligence artificielle (ICASI). CAISI vise à « soutenir le développement et le déploiement sûrs et responsables de l'intelligence artificielle » en collaborant avec d'autres pays pour établir des normes et des attentes.
Le développement du CAISI permet au Canada de se joindre aux États-Unis et à d'autres pays qui ont créé des instituts similaires qui, espérons-le, travailleront en collaboration pour établir des normes multilatérales pour l'IA qui encouragent le développement responsable tout en promouvant l'innovation.
L'Institut d'éthique de l'IA de Montréal propose des ressources comme un bulletin d'information, un blog et un dictionnaire interactif de l'éthique de l'IA. L'Institut Swartz Reisman pour la technologie et la société de l'Université de Toronto et le CARE-AI de l'Université de Guelph sont des exemples d'universités qui créent des forums universitaires pour enquêter sur l'IA éthique.
Dans le secteur privé, Telus est la première entreprise de télécommunications canadienne à s'engager publiquement en faveur de la transparence et de la responsabilité en matière d'IA. L'unité IA responsable de Telus a récemment publié son rapport sur l'IA 2024 qui traite de l'engagement de l'entreprise en faveur d'une IA responsable par le biais de l'engagement des clients et de la communauté.
En novembre 2023, le Canada faisait partie des 29 pays à signer la Déclaration de Bletchley sur l’IA à la suite du premier Sommet international sur la sécurité de l’IA. L’objectif de la déclaration était de parvenir à un accord sur la manière d’évaluer et d’atténuer les risques liés à l’IA dans le secteur privé.
Plus récemment, les gouvernements de l'Ontario et du Québec ont déposé des lois sur l'utilisation et le développement d'outils et de systèmes d'IA dans le secteur public.
En janvier 2025, la loi de l’Union européenne sur l’IA entrera en vigueur, surnommée « la première loi globale sur l’IA au monde ».
Transformer les cadres en action
À mesure que l’utilisation de l’IA générative se généralise, le secteur des communications – y compris les relations publiques, le marketing, les médias numériques et sociaux et les affaires publiques – doit élaborer des lignes directrices claires pour l’utilisation de l’IA générative.
Bien que des progrès aient été réalisés par les gouvernements, les universités et les industries, des efforts supplémentaires sont nécessaires pour transformer ces cadres en lignes directrices concrètes pouvant être adoptées par les secteurs des communications, des médias et du marketing du Canada.
Les groupes industriels comme la Société canadienne des relations publiques, l'Association internationale des communicateurs d'affaires et l'Association canadienne du marketing devraient élaborer des normes et des programmes de formation qui répondent aux besoins des professionnels des relations publiques, du marketing et des médias numériques.
La Société canadienne des relations publiques fait des progrès dans cette direction, en s'associant au Chartered Institute for Public Relations, un organisme professionnel pour les praticiens des relations publiques au Royaume-Uni. Ensemble, les deux associations professionnelles ont créé le AI in PR Panel, qui a produit des guides pratiques pour les communicateurs souhaitant utiliser l’IA générative de manière responsable.
Établir des normes pour l’IA
Pour maximiser les avantages de l’IA générative tout en limitant ses inconvénients, le domaine des communications doit adopter des normes professionnelles et des meilleures pratiques. Au cours des deux dernières années d’utilisation de l’IA générative, plusieurs domaines de préoccupation ont émergé, qui devraient être pris en compte lors de l’élaboration de lignes directrices.
- Transparence et divulgation. Le contenu généré par l’IA doit être étiqueté. Il convient de divulguer comment et quand l’IA générative est utilisée. Les agents d’IA ne doivent pas être présentés au public comme des humains.
- Précision et vérification des faits. Les communicateurs professionnels doivent respecter les normes journalistiques d’exactitude en vérifiant les faits produits par l’IA et en corrigeant les erreurs. Les communicateurs ne devraient pas utiliser l’IA pour créer ou diffuser de la désinformation ou du contenu trompeur.
- Justice. Les systèmes d'IA doivent être régulièrement vérifiés afin de garantir qu'ils respectent le public de l'organisation en fonction de variables telles que la race, le sexe, l'âge et la situation géographique, entre autres. Pour réduire les biais, les organisations doivent s’assurer que les ensembles de données utilisés pour former leurs systèmes d’IA générative sont fidèlement représentatifs des publics et des utilisateurs.
- Confidentialité et consentement. Les droits à la vie privée des utilisateurs doivent être respectés. Les lois sur la protection des données doivent être respectées. Les données personnelles ne doivent pas être utilisées pour former des systèmes d'IA sans le consentement exprès des utilisateurs. Les individus devraient être autorisés à refuser de recevoir des communications automatisées et de ne plus recevoir de données collectées.
- Responsabilité et surveillance. Les décisions en matière d’IA devraient toujours être soumises à la surveillance humaine. Des lignes claires de responsabilité et de reporting doivent être définies. Les systèmes d’IA générative doivent être audités régulièrement. Pour mettre en œuvre ces politiques, les organisations devraient nommer un groupe de travail permanent sur l'IA, responsable devant le conseil d'administration et les membres de l'organisation. Le groupe de travail sur l’IA devrait surveiller l’utilisation de l’IA et rendre régulièrement compte de ses conclusions aux parties concernées.
L’IA générative recèle un immense potentiel pour améliorer la créativité humaine et la narration. En élaborant et en suivant des lignes directrices réfléchies en matière d’IA, le secteur des communications peut renforcer la confiance du public et contribuer à maintenir l’intégrité de l’information publique, essentielle à une société et à une démocratie prospères.