Comment faire en sorte que les technologies des « villes intelligentes » se comportent de manière éthique
À mesure que les gouvernements locaux adoptent de nouvelles technologies qui automatisent de nombreux aspects des services urbains, il existe un risque accru de tensions entre l'éthique et les attentes des citoyens et le comportement de ces outils de « ville intelligente ». Les chercheurs proposent une approche qui permettra aux décideurs politiques et aux développeurs de technologies de mieux aligner les valeurs programmées dans les technologies des villes intelligentes avec l'éthique des personnes qui interagiront avec elles.
« Notre travail ici présente un plan sur la façon dont nous pouvons à la fois établir ce que devraient être les valeurs d'une technologie basée sur l'IA et réellement programmer ces valeurs dans les systèmes d'IA pertinents », déclare Veljko Dubljević, auteur correspondant d'un article sur le travail et professeur émérite de philosophie Joseph D. Moore à l'Université d'État de Caroline du Nord.
L’enjeu concerne les villes intelligentes, un terme fourre-tout qui recouvre une variété de pratiques technologiques et administratives apparues dans les villes au cours des dernières décennies. Les exemples incluent les technologies automatisées qui envoient les forces de l'ordre lorsqu'elles détectent d'éventuels coups de feu, ou les technologies qui utilisent des capteurs automatisés pour surveiller la circulation des piétons et des automobiles afin de tout contrôler, des lampadaires aux feux de circulation.
« Ces technologies peuvent poser d'importantes questions éthiques », explique Dubljević, qui fait partie du programme Science, Technologie et Société de NC State.
« Par exemple, si la technologie de l'IA suppose qu'elle a détecté un coup de feu et envoie une équipe SWAT sur un lieu d'affaires, mais que le bruit était en réalité autre chose, est-ce raisonnable ? » » demande Dubljević. « Qui décide dans quelle mesure les gens doivent être suivis ou surveillés par les technologies des villes intelligentes ? Quels comportements devraient désigner une personne comme un individu devant faire l'objet d'une surveillance renforcée ?
« Ce sont des questions raisonnables, et pour le moment, il n'existe aucune procédure convenue pour y répondre. Et il n'existe certainement pas de procédure claire sur la manière dont nous devrions entraîner l'IA à répondre à ces questions. »
Pour relever ce défi, les chercheurs se sont tournés vers ce qu’on appelle le modèle Agent Deed Consequence (ADC). Le modèle ADC soutient que les gens prennent trois choses en compte lorsqu'ils portent un jugement moral : l'agent, qui est le caractère ou l'intention de la personne qui fait quelque chose ; l'acte, ou ce qui est fait ; et la conséquence, ou le résultat qui résulte de l'acte.
Dans leur article maintenant publié dans Algorithmesles chercheurs démontrent que le modèle ADC peut être utilisé non seulement pour capturer la manière dont les humains portent des jugements de valeur et des décisions éthiques, mais peut le faire d'une manière qui peut être programmée dans un système d'IA. Cela est possible car le modèle ADC utilise la logique déontique, qui est un type de logique impérative.
« Cela nous permet de capturer non seulement ce qui est vrai, mais aussi ce qui devrait être fait », explique Daniel Shussett, premier auteur de l'article et chercheur postdoctoral à NC State. « C'est important car cela stimule l'action et peut être utilisé par un système d'IA pour faire la distinction entre les ordres ou demandes légitimes et illégitimes. »
« Par exemple, si un système d'IA est chargé de gérer le trafic et qu'une ambulance avec des feux de secours clignotants s'approche d'un feu de circulation, cela peut être un signal à l'IA que l'ambulance doit avoir la priorité et modifier les feux de circulation pour faciliter son déplacement rapidement », explique Dubljević. « Ce serait une demande légitime. Mais si un véhicule au hasard installe des feux clignotants sur son toit pour tenter de traverser la circulation plus rapidement, ce serait une demande illégitime et l'IA ne devrait pas leur donner le feu vert.
« Avec les humains, il est possible d'expliquer les choses de manière à ce que les gens apprennent ce qui doit et ne doit pas être fait, mais cela ne fonctionne pas avec les ordinateurs. Au lieu de cela, vous devez être capable de créer une formule mathématique qui représente la chaîne de raisonnement. Le modèle ADC nous permet de créer cette formule. »
« Ces technologies émergentes de villes intelligentes sont adoptées partout dans le monde, et le travail que nous avons effectué ici suggère que le modèle ADC peut être utilisé pour répondre à toute la portée des questions éthiques posées par ces technologies », explique Shussett. « La prochaine étape consiste à tester une variété de scénarios sur plusieurs technologies dans des simulations pour garantir que le modèle fonctionne de manière cohérente et prévisible. S'il réussit ces tests, il sera prêt à être testé dans des contextes réels. »
