L'essor du « défendeur machine » : à qui la faute lorsqu'une IA commet des erreurs ?
Peu d’industries restent à l’abri du potentiel de transformation de l’intelligence artificielle (IA) – ou du moins de son battage médiatique.
Pour les entreprises, les promesses de cette technologie vont bien au-delà de la rédaction d'e-mails. Elle est déjà utilisée pour automatiser un large éventail de processus et d'interactions commerciales, encadrer les employés et même aider les médecins à analyser les données médicales.
La concurrence entre les différents créateurs de modèles d’IA, notamment OpenAI, Meta, Anthropic et Google, continuera de favoriser des améliorations rapides.
Nous devons nous attendre à ce que ces systèmes deviennent beaucoup plus intelligents au fil du temps, ce qui signifie que nous pourrions commencer à leur confier de plus en plus de responsabilités.
La grande question devient alors : que se passe-t-il si quelque chose tourne mal ? Qui est responsable en dernier ressort des décisions prises par une machine ?
Mes recherches ont porté sur ce problème. Il est inquiétant de constater que nos cadres juridiques actuels ne sont peut-être pas à la hauteur.
Il semble que nous ayons évité la catastrophe jusqu’à présent
Les progrès technologiques sont inévitables. Nous l'avons déjà constaté avec Internet, qui a apporté d'énormes avantages à la société, mais a également créé une multitude de nouveaux problèmes, comme l'addiction aux réseaux sociaux, les violations de données et la montée de la cybercriminalité.
Jusqu'à présent, nous semblons avoir évité une catastrophe mondiale sur Internet. Pourtant, la panne de CrowdStrike en juillet, qui a rapidement paralysé les entreprises et de nombreux autres services, nous a rappelé à quel point nous sommes devenus dépendants de la technologie et à quelle vitesse les choses peuvent s'effondrer dans un Web aussi interdépendant.
Tout comme l’Internet naissant, l’IA générative promet également d’immenses avantages à la société, mais elle est susceptible de présenter des inconvénients importants et imprévisibles.
Les avertissements ne manquent pas. Certains experts estiment même qu'une intelligence artificielle incontrôlable pourrait représenter une menace de niveau nucléaire et représenter un risque existentiel majeur pour l'humanité.
L’un des risques les plus évidents est que des « acteurs malveillants » – comme des groupes criminels organisés et des États-nations voyous – utilisent cette technologie pour causer délibérément des dommages. Il peut s’agir d’utiliser des deepfakes et d’autres fausses informations pour influencer les élections ou pour commettre des cybercrimes en masse. Nous avons déjà vu des exemples d’utilisation de cette technologie.
Les risques qui surviennent lorsque nous confions des tâches et des responsabilités importantes à l’IA, notamment dans la gestion des entreprises et d’autres services essentiels, sont moins dramatiques, mais tout aussi problématiques. Il n’est certainement pas exagéré d’imaginer une future panne technologique mondiale causée par un code informatique écrit et livré entièrement par l’IA.
Lorsque ces IA prennent des décisions autonomes qui causent par inadvertance des dommages (qu’il s’agisse d’une perte financière ou d’un préjudice réel), qui tenons-nous pour responsable ?
Nos lois ne sont pas préparées
Il est inquiétant de constater que nos théories actuelles en matière de responsabilité juridique pourraient être mal adaptées à cette nouvelle réalité.
En effet, outre certaines lois sur la responsabilité du fait des produits, les théories actuelles exigent souvent une faute intentionnelle, ou au moins une négligence prouvable de la part d’un individu.
Une réclamation pour négligence, par exemple, exigera que le préjudice ait été raisonnablement causé. prévisible et en fait causé par la conduite du concepteur, du fabricant, du vendeur ou de toute autre personne qui pourrait être le défendeur dans un cas particulier.
Mais à mesure que les systèmes d’IA continuent de progresser et de devenir plus intelligents, ils feront presque certainement des choses avec des résultats qui n’ont peut-être pas été complètement attendus ou anticipés par leurs fabricants, concepteurs, etc.
Ce « comportement émergent » pourrait être dû au fait que l’IA est devenue plus intelligente que ses créateurs. Mais il pourrait aussi refléter des motivations ou des objectifs d’autoprotection, puis d’intérêt personnel, de la part des systèmes d’IA avancés.
Mes propres recherches visent à mettre en évidence un problème majeur qui se pose dans la manière dont nous évaluons la responsabilité.
Dans un cas hypothétique où une IA aurait causé un préjudice important, ses créateurs humains et corporatifs pourraient être en mesure de se protéger de toute responsabilité pénale ou civile.
Ils pourraient le faire en faisant valoir que le dommage n’était pas raisonnablement prévisible par eux, ou que les actions inattendues de l’IA ont rompu la chaîne de causalité entre la conduite du fabricant et la perte, le dommage ou le préjudice subi par les victimes.
Il s’agirait de défenses possibles contre des actions pénales ou civiles.
Il en irait de même pour l’argument de la défense pénale selon lequel ce qu’on appelle « l’élément de faute » d’une infraction – l’intention, la connaissance, l’imprudence ou la négligence – du concepteur du système d’IA n’aurait pas été compensé par l’« élément physique » nécessaire – qui, dans ce cas, aurait été commis par une machine.
Nous devons nous préparer maintenant
Les forces du marché font déjà avancer rapidement les choses dans le domaine de l’intelligence artificielle. Mais on ne sait pas exactement où cela va se produire.
Il se peut que le droit coutumier actuel, élaboré par les tribunaux, soit suffisamment souple pour faire face à ces nouveaux problèmes. Mais il est également possible que les lois actuelles soient incomplètes, ce qui pourrait ajouter un sentiment d'injustice à d'éventuelles catastrophes futures.
Il sera important de veiller à ce que les entreprises qui ont le plus profité du développement de l’IA soient également tenues responsables de ses coûts et de ses conséquences si les choses tournent mal.
Se préparer à résoudre ce problème devrait être une priorité pour les tribunaux et les gouvernements de tous les États-nations, et pas seulement pour celui de l’Australie.