La théologie médiévale a une vision ancienne d’un nouveau problème : la responsabilité de l’IA

La théologie médiévale a une vision ancienne d’un nouveau problème : la responsabilité de l’IA

Un taxi autonome n'a pas de passagers, il se gare donc sur un parking pour réduire les embouteillages et la pollution de l'air. Après avoir été hélé, le taxi part chercher son passager et heurte tragiquement un piéton sur un passage pour piétons.

Qui ou quoi mérite d'être félicité pour les actions menées par la voiture pour réduire les embouteillages et la pollution de l'air ? Et qui ou quoi mérite d'être blâmé pour les blessures du piéton ?

Il est possible que le concepteur ou le développeur du taxi autonome soit en cause. Mais dans de nombreux cas, il n’aurait pas été en mesure de prédire le comportement exact du taxi. En fait, les gens veulent généralement que l’intelligence artificielle découvre une idée ou un plan nouveau ou inattendu. Si nous savons exactement ce que le système doit faire, alors nous n’avons pas besoin de nous soucier de l’IA.

Il serait peut-être judicieux de féliciter et de blâmer le taxi lui-même. Cependant, ces systèmes d’IA sont essentiellement déterministes : leur comportement est dicté par leur code et les données des capteurs entrants, même si les observateurs peuvent avoir du mal à prédire ce comportement. Il semble étrange de juger moralement une machine qui n’a pas eu le choix.

Selon de nombreux philosophes modernes, les agents rationnels peuvent être moralement responsables de leurs actes, même si ces derniers ont été entièrement prédéterminés, que ce soit par les neurosciences ou par un code. Mais la plupart s’accordent à dire que l’agent moral doit avoir certaines capacités qui manquent presque certainement aux taxis autonomes, comme la capacité de façonner ses propres valeurs. Les systèmes d’IA se situent à mi-chemin entre les agents moraux et les outils non moraux.

En tant que société, nous sommes confrontés à un dilemme : il semble que personne, ou aucun élément, ne soit moralement responsable des actions de l’IA – ce que les philosophes appellent un déficit de responsabilité. Les théories actuelles de la responsabilité morale ne semblent tout simplement pas adaptées à la compréhension des situations impliquant des systèmes d’IA autonomes ou semi-autonomes.

Si les théories actuelles ne fonctionnent pas, peut-être devrions-nous nous tourner vers le passé, vers des idées vieilles de plusieurs siècles qui trouvent aujourd’hui une résonance surprenante.

Dieu et l'homme

Une question similaire a intrigué les théologiens chrétiens des XIIIe et XIVe siècles, de Thomas d’Aquin à Duns Scot en passant par Guillaume d’Ockham. Comment les gens peuvent-ils être responsables de leurs actes et de leurs conséquences si un Dieu omniscient les a conçus – et savait vraisemblablement ce qu’ils feraient ?

Les philosophes médiévaux estimaient que les décisions d'une personne découlaient de sa volonté, agissant sur les produits de son intellect. D'une manière générale, ils concevaient l'intellect humain comme un ensemble de capacités mentales qui permettent la pensée rationnelle et l'apprentissage.

L'intellect est la partie rationnelle et logique de l'esprit ou de l'âme des gens. Lorsque deux personnes sont confrontées à des situations identiques et qu'elles arrivent toutes deux à la même « conclusion rationnelle » sur la façon de gérer les choses, elles font appel à l'intellect. L'intellect est en quelque sorte comme un code informatique.

Mais l'intellect ne fournit pas toujours une réponse unique. Souvent, l'intellect ne propose que des possibilités, et la volonté fait un choix parmi celles-ci, consciemment ou inconsciemment. La volonté est l'acte de choisir librement parmi les possibilités.

Prenons un exemple simple : un jour de pluie, mon intellect me dit de prendre un parapluie dans mon placard, mais je ne sais pas lequel. Will choisit le parapluie rouge au lieu du bleu.

Pour ces penseurs médiévaux, la responsabilité morale dépendait de la contribution de la volonté et de l’intellect. Si l’intellect détermine qu’il n’y a qu’une seule action possible, alors je ne peux pas faire autrement et je ne suis donc pas moralement responsable. On pourrait même en conclure que Dieu est moralement responsable, puisque mon intellect vient de Dieu – bien que les théologiens médiévaux aient été très prudents lorsqu’il s’agissait d’attribuer la responsabilité à Dieu.

En revanche, si l'intellect n'impose aucune contrainte à mes actions, alors j'en suis pleinement responsable moralement, puisque c'est la volonté qui fait tout le travail. Bien entendu, la plupart des actions impliquent à la fois la contribution de l'intellect et de la volonté, et il ne s'agit généralement pas d'une question de choix.

De plus, d’autres personnes nous contraignent souvent : des parents et des enseignants aux juges et aux monarques, surtout à l’époque des philosophes médiévaux, ce qui rend encore plus compliqué l’attribution de la responsabilité morale.

L'homme et l'IA

Il est clair que la relation entre les développeurs d’IA et leurs créations n’est pas exactement la même que celle qui existe entre Dieu et les humains. Mais en tant que professeurs de philosophie et d’informatique, nous voyons des parallèles intrigants. Ces idées anciennes pourraient nous aider aujourd’hui à réfléchir à la manière dont un système d’IA et ses concepteurs pourraient partager la responsabilité morale.

Les développeurs d'IA ne sont pas des dieux omniscients, mais ils fournissent l'« intellect » du système d'IA en sélectionnant et en mettant en œuvre ses méthodes d'apprentissage et ses capacités de réponse. Du point de vue du concepteur, cet « intellect » contraint le comportement de l'IA mais ne détermine presque jamais complètement son comportement.

La plupart des systèmes d'IA modernes sont conçus pour apprendre à partir de données et peuvent réagir de manière dynamique à leur environnement. L'IA semblera donc avoir une « volonté » qui choisit comment réagir, dans les limites de son « intellect ».

Les utilisateurs, les gestionnaires, les régulateurs et d’autres parties peuvent encore contraindre les systèmes d’IA, de la même manière que les autorités humaines telles que les monarques contraignent les gens dans le cadre des philosophes médiévaux.

Qui est responsable ?

Ces idées vieilles de plusieurs milliers d’années correspondent étonnamment bien à la structure des problèmes moraux impliquant des systèmes d’IA. Revenons donc à nos questions initiales : qui ou qu’est-ce qui est responsable des avantages et des inconvénients du taxi autonome ?

Les détails comptent. Par exemple, si le concepteur d'un taxi décrit explicitement comment le taxi doit se comporter autour des passages piétons, alors ses actions seront entièrement dues à son « intellect » et les concepteurs en seront donc responsables.

Cependant, imaginons que le taxi se trouve dans des situations pour lesquelles il n'a pas été explicitement programmé, comme si le passage piéton était peint d'une manière inhabituelle ou si le taxi apprenait quelque chose de différent des données de son environnement que ce que le développeur avait en tête. Dans de tels cas, les actions du taxi seraient principalement dues à sa « volonté », car le taxi a sélectionné une option inattendue, et il en est donc responsable.

Si le taxi est moralement responsable, alors qu'en est-il ? La compagnie de taxi est-elle responsable ? Le code de conduite du taxi doit-il être mis à jour ? Nous ne sommes pas tous les deux d'accord sur la réponse complète. Mais nous pensons qu'une meilleure compréhension de la responsabilité morale est une première étape importante.

Les idées médiévales ne se limitent pas aux objets médiévaux. Ces théologiens peuvent aider les éthiciens d’aujourd’hui à mieux comprendre le défi actuel des systèmes d’IA, même si nous n’en avons fait qu’effleurer la surface.