Arrêtez l’IA hors de contrôle et concentrez-vous sur les gens, recommande un nouveau livre

Arrêtez l’IA hors de contrôle et concentrez-vous sur les gens, recommande un nouveau livre

Dans un nouvel ouvrage co-édité par Catherine Régis et Jean-Louis Denis de l'UdeM, des experts d'une douzaine de pays et d'une douzaine de disciplines plaident pour une approche de l'intelligence artificielle plus centrée sur l'humain.

Les entreprises doivent cesser de concevoir de nouvelles technologies d’intelligence artificielle simplement parce qu’elles le peuvent, et les individus doivent cesser d’adapter leurs pratiques, leurs habitudes et leurs lois pour s’adapter à la nouvelle technologie. Au lieu de cela, l’IA devrait être conçue pour répondre exactement à ce dont les gens ont réellement besoin.

C'est le point de vue de 50 experts mondiaux qui ont contribué à des articles de recherche à « Human-Centered AI », un nouveau livre co-édité par deux experts de l'Université de Montréal qui explore les risques – et les opportunités manquées – du statu quo et comment il peut être rendu meilleur.

Une solution importante consisterait à recourir à des mécanismes juridiques, aujourd'hui terriblement inadaptés à la tâche, a déclaré Pierre Larouche, professeur de droit à l'UdeM et vice-doyen de la faculté spécialisé en droit de la concurrence.

Traiter l'IA comme « un objet de droit et de réglementation autonome » et supposer qu'il n'existe « aucune loi actuellement applicable à l'IA » a laissé certains décideurs politiques se sentir inaptes à accomplir une tâche insurmontable, a déclaré Larouche.

« Malgré la rareté, voire l'absence totale, de règles spécifiques concernant l'IA en tant que telle, les lois qui peuvent s'appliquer à l'IA ne manquent pas, en raison de son ancrage dans les relations sociales et économiques », a-t-il déclaré.

Le défi n’est pas de créer une nouvelle législation mais d’étendre et d’appliquer les lois existantes à l’IA, a-t-il soutenu. De cette façon, les décideurs politiques ne tomberont pas dans le piège des « tactiques dilatoires conçues pour prolonger la discussion indéfiniment, alors que la technologie continue de progresser à un rythme rapide ».

L'avocat montréalais Benjamin Prud'homme, vice-président aux politiques, à la société et aux affaires mondiales au Mila (Institut québécois d'intelligence artificielle), affilié à l'UdeM, l'une des plus grandes communautés universitaires dédiées à l'IA, est du même avis.

Il exhorte les décideurs politiques à « commencer à s'éloigner de la dichotomie entre innovation et réglementation (et) à reconnaître qu'il pourrait être acceptable d'étouffer l'innovation si cette innovation est irresponsable ».

Prud'homme a cité l'Union européenne comme exemple de volontarisme en la matière, via son « AI Act très ambitieux, première loi systémique sur l'IA, (qui) devrait être définitivement approuvée dans les prochains mois ».

Co-édité par Catherine Régis, professeure à l'UdeM et experte en droit de la santé, et Jean-Louis Denis, expert en santé publique de l'UdeM, ainsi que Maria Luciana Axente de l'Université de Cambridge et Atsuo Kishimoto de l'Université d'Osaka, Human-Centered AI rassemble des spécialistes de disciplines allant de l'éducation de la gestion à la science politique.

Le livre examine les technologies de l'IA dans un certain nombre de contextes, notamment l'agriculture, les environnements de travail, les soins de santé, la justice pénale et l'enseignement supérieur, et propose des approches de réglementation centrées sur les personnes et des moyens interdisciplinaires de travailler ensemble pour rendre l'IA moins exclusive des besoins humains.

Shannon Vallor, professeur de philosophie à l'Université d'Édimbourg, cite l'IA générative de plus en plus populaire comme exemple de technologie qui n'est pas centrée sur l'humain. Elle affirme que la technologie a été créée par des organisations souhaitant simplement voir à quel point elles peuvent créer un système puissant, plutôt que de créer « quelque chose de conçu par nous, pour nous et pour notre bénéfice ».

D'autres contributeurs au nouveau livre examinent l'impact de l'IA sur le comportement humain (via Google, Facebook et d'autres plateformes), comment l'IA manque de données sur les minorités et contribue donc à les marginaliser, et comment l'IA porte atteinte à la vie privée dans la mesure où les gens ignorent comment leurs informations sont collectées et stocké.