Non, l'IA ne nous tuera probablement pas tous - et il y a plus dans cette campagne de peur qu'il n'y paraît

Une enquête sur l'IA révèle que la plupart des gens souhaitent qu'elle soit réglementée, mais la confiance dans le gouvernement reste faible

Si vous utilisez les réseaux sociaux, vous avez probablement rencontré des deepfakes. Il s'agit de clips vidéo ou audio de politiciens, de célébrités ou d'autres personnes manipulés à l'aide de l'intelligence artificielle (IA) pour donner l'impression que la personne dit ou fait quelque chose qu'elle n'a pas réellement dit ou fait.

Si l’idée des deepfakes vous effraie, vous n’êtes pas seul. Notre récente recherche d’opinion publique menée en Colombie-Britannique a révélé que pour 90 % des personnes interrogées, les deepfakes figurent en tête de liste des principales préoccupations liées à l’IA.

Dire qu’il y a beaucoup de battage autour de l’IA est un euphémisme. Les reportages des médias et les commentaires des leaders de l’industrie présentent simultanément l’IA comme « la prochaine grande nouveauté » et comme un risque existentiel qui va anéantir l’humanité. Ce sensationnalisme détourne parfois l’attention des risques tangibles dont nous devons nous inquiéter, allant de la vie privée au déplacement d’emploi, de la consommation d’énergie à l’exploitation des travailleurs.

Même si des discussions politiques pragmatiques ont lieu, et ce n’est pas trop tôt, elles se déroulent en grande partie à huis clos.

Au Canada, comme dans de nombreux endroits dans le monde, le gouvernement fédéral a échoué à maintes reprises à consulter le public sur la réglementation des nouvelles technologies, laissant la porte ouverte à des groupes industriels bien financés pour façonner le discours et les possibilités d'action en matière d'IA. . Cela n’aide pas que les médias canadiens continuent de citer les mêmes entrepreneurs technologiques. C'est comme si personne d'autre n'avait rien à dire sur ce sujet.

Nous voulions savoir ce que le reste de la société avait à dire.

Notre enquête IA

En octobre 2024, au Centre pour le dialogue de l'Université Simon Fraser, nous avons collaboré avec une société d'opinion publique pour mener un sondage auprès de plus de 1 000 résidents de la Colombie-Britannique sélectionnés au hasard afin de mieux comprendre leur point de vue sur l'IA. Plus précisément, nous voulions comprendre leur conscience de l’IA et de ses impacts perçus, leurs attitudes à son égard et leurs points de vue sur ce que nous devrions faire à ce sujet en tant que société.

Dans l’ensemble, nous avons constaté que les Britanno-Colombiens sont raisonnablement informés sur l’IA. Une majorité a pu repérer correctement les technologies quotidiennes qui utilisent l’IA à partir d’une liste standardisée, et 54 % ont déclaré avoir personnellement utilisé un système ou un outil d’IA pour générer du texte ou des médias. Cela suggère qu’une bonne partie de la population est suffisamment engagée dans la technologie pour être invitée à en discuter.

Cependant, la familiarité n'engendre pas nécessairement la confiance, puisque notre étude a montré que plus de 80 % des Britanno-Colombiens déclarent se sentir « nerveux » quant à l'utilisation de l'IA dans la société. Mais cette nervosité n’était pas associée au catastrophisme. En fait, 64 % ont déclaré qu'ils estimaient que l'IA n'était « qu'une technologie parmi d'autres », contre seulement 32 % qui pensaient qu'elle allait « changer fondamentalement la société ». 57 % estiment que l’IA ne sera jamais vraiment à la hauteur de ce que les humains peuvent faire.

Au lieu de cela, les préoccupations de la plupart des répondants étaient pratiques et fondées. 86 % des personnes interrogées craignent de perdre le sentiment de leur capacité d'agir ou de leur contrôle personnel si les entreprises et les gouvernements utilisaient l'IA pour prendre des décisions qui affectent leur vie. 80 % estiment que l’IA amènerait les gens à se sentir plus déconnectés de la société, tandis que 70 % ont déclaré que l’IA montrerait des préjugés à l’encontre de certains groupes de personnes.

La grande majorité (90 %) étaient préoccupées par les deepfakes et 85 % par l’utilisation d’informations personnelles pour entraîner l’IA. Un peu moins de 80 % se sont dits préoccupés par le fait que les entreprises remplacent leurs travailleurs par l'IA. En ce qui concerne leur vie personnelle, 69 % des personnes interrogées craignent que l’IA ne présente des défis pour leur vie privée et 46 % pour leur capacité à trouver des informations précises en ligne.

Un bon nombre d’entre eux avaient une opinion positive de l’IA. 53 % des personnes interrogées étaient enthousiasmées par la façon dont l'IA pourrait repousser les limites de ce que les humains peuvent réaliser. Un peu moins de 60 % ont exprimé leur fascination pour l’idée selon laquelle les machines peuvent apprendre, réfléchir ou assister les humains dans leurs tâches. Dans leur vie personnelle, 53 % des personnes interrogées ont une opinion positive du potentiel de l'IA à accélérer les choses. Ils se sentaient également relativement enthousiasmés par l’avenir de l’IA dans certains domaines ou industries, notamment en médecine, où la Colombie-Britannique est confrontée à une pénurie palpable de capacité.

Si les participants à notre enquête avaient un message à transmettre à leur gouvernement, c’était de commencer à réglementer l’IA. Une majorité (58 %) estiment que les risques d'un secteur technologique de l'IA non réglementé sont plus grands que le risque que la réglementation gouvernementale puisse étouffer le développement futur de l'IA (15 %). Environ 20 % n’étaient pas sûrs.

Faible confiance dans le gouvernement et les institutions

Certains chercheurs estiment que le gouvernement et l'industrie de l'IA se trouvent face à un « dilemme du prisonnier », les gouvernements hésitant à introduire des réglementations par crainte de paralyser le secteur technologique. Mais en ne parvenant pas à réglementer les effets néfastes de l’IA sur la société, ils pourraient coûter à l’industrie le soutien d’un public prudent et consciencieux et, en fin de compte, son permis social.

Des rapports récents suggèrent que l’adoption des technologies d’IA par les entreprises canadiennes a été extrêmement lente. Peut-être, comme nos résultats le suggèrent, les Canadiens hésiteront-ils à adopter pleinement l’IA à moins que ses risques ne soient gérés par la réglementation.

Mais le gouvernement est ici confronté à un problème : nos institutions ont un problème de confiance.

D’une part, 55 % des personnes interrogées sont convaincues que les gouvernements devraient être responsables de l’établissement de règles et de la limitation des risques liés à l’IA, au lieu de laisser aux entreprises technologiques le soin de le faire elles-mêmes (25 %) ou d’attendre que les individus développent les connaissances nécessaires. se protéger (20%).

D'un autre côté, notre étude montre que la confiance dans le gouvernement pour gérer et développer l'IA avec soin et en gardant à l'esprit l'intérêt du public est faible, à seulement 30 %. La confiance est encore plus faible dans les entreprises technologiques (21 %) et les organisations non gouvernementales (29 %).

Les établissements universitaires obtiennent les meilleurs résultats en matière de confiance, avec 51 % des personnes interrogées leur faisant assez ou fortement confiance pour gérer cela de manière responsable. Un peu plus de la moitié, ce n’est toujours pas un chiffre vraiment flatteur. Mais nous devrons peut-être simplement considérer cela comme un appel à l’action.

Vers une gouvernance participative de l’IA

Les études sur la gouvernance de l’IA au Canada soulignent à plusieurs reprises la nécessité de mécanismes de participation publique meilleurs, plus transparents et plus démocratiques. Certains diraient que la question est trop technique pour que le public s’y intéresse, mais cette définition de l’IA comme le domaine réservé de l’élite technique fait partie de ce qui nous empêche d’avoir une véritable conversation sociétale.

Notre enquête suggère que les résidents sont non seulement conscients et intéressés par l’IA, mais expriment à la fois un désir d’action et un désir de plus d’informations pour les aider à continuer à s’intéresser à ce sujet.

Le public est peut-être plus disposé à participer à la conversation sur l’IA qu’on ne le croit.

Le Canada a besoin d’une politique fédérale pour garantir une gestion responsable de l’IA. Le gouvernement fédéral a récemment lancé un nouvel AI Safety Institute pour mieux comprendre et aborder scientifiquement les risques des systèmes d’IA avancés. Cet organisme, ou un autre organisme similaire, devrait se concentrer sur le développement de mécanismes pour une gouvernance plus participative de l’IA.

Les provinces ont également la possibilité de jouer un rôle de chef de file en matière d’IA dans le cadre constitutionnel du Canada. L’Ontario et le Québec ont réalisé une partie de ce travail, et la Colombie-Britannique a déjà ses propres principes directeurs pour aborder l’IA de manière responsable.

Le Canada et la Colombie-Britannique ont l’occasion de mener une approche hautement participative en matière de politique en matière d’IA. Les organismes convocateurs comme notre propre Centre pour le dialogue sont désireux de contribuer à la discussion, tout comme de nombreux universitaires. Notre étude indique que le public est prêt à s’y joindre.