Une formule mathématique s'attaque à la prise de décision morale complexe en IA

Une formule mathématique s’attaque à la prise de décision morale complexe en IA

Crédit : Pixabay/CC0 Domaine public

Une équipe interdisciplinaire de chercheurs a développé un modèle pour créer des algorithmes qui intègrent plus efficacement les directives éthiques dans les programmes de prise de décision d’intelligence artificielle (IA). Le projet s’est concentré spécifiquement sur les technologies dans lesquelles les humains interagissent avec les programmes d’IA, tels que les assistants virtuels ou les « carebots » utilisés dans les établissements de santé.

« Des technologies comme les carebots sont censées aider à assurer la sécurité et le confort des patients hospitalisés, des personnes âgées et d’autres personnes qui ont besoin d’un suivi de santé ou d’une assistance physique », déclare Veljko Dubljević, auteur correspondant d’un article sur le travail et professeur agrégé en sciences. , programme Technology & Society à la North Carolina State University. « En termes pratiques, cela signifie que ces technologies seront placées dans des situations où elles doivent porter des jugements éthiques. »

« Par exemple, disons qu’un carebot se trouve dans un environnement où deux personnes ont besoin d’une assistance médicale. Un patient est inconscient mais nécessite des soins urgents, tandis que le deuxième patient a un besoin moins urgent mais exige que le carebot le traite en premier. Comment le le carebot décide-t-il quel patient est assisté en premier ? Le carebot devrait-il même traiter un patient inconscient et donc incapable de consentir à recevoir le traitement ? »

« Les efforts précédents pour intégrer la prise de décision éthique dans les programmes d’IA avaient une portée limitée et se concentraient sur le raisonnement utilitaire, qui néglige la complexité de la prise de décision morale humaine », déclare Dubljević. « Notre travail aborde ce problème et, même si j’ai utilisé les carebots comme exemple, s’applique à un large éventail de technologies d’association homme-IA. »

La prise de décision utilitaire se concentre sur les résultats et les conséquences. Mais lorsque les humains émettent des jugements moraux, ils tiennent également compte de deux autres facteurs.

Le premier facteur est l’intention d’une action donnée et le caractère de l’agent exécutant l’action. En d’autres termes, qui accomplit une action donnée et que cherche-t-il à accomplir ? Est-ce bienveillant ou malveillant ? Le deuxième facteur est l’action elle-même. Par exemple, les gens ont tendance à considérer certaines actions, comme le mensonge, comme intrinsèquement mauvaises.

Et tous ces facteurs interagissent les uns avec les autres. Par exemple, nous pouvons convenir que mentir est mauvais, mais si une infirmière ment à un patient qui fait des demandes odieuses afin de donner la priorité au traitement d’un deuxième patient ayant un besoin plus urgent, la plupart des gens considéreraient cela comme moralement acceptable.

Pour répondre à la complexité de la prise de décision morale, les chercheurs ont développé une formule mathématique et une série connexe d’arbres de décision qui peuvent être incorporés dans les programmes d’IA. Ces outils s’appuient sur quelque chose appelé le modèle agent, acte et conséquence (ADC), qui a été développé par Dubljević et ses collègues pour refléter la façon dont les gens prennent des décisions éthiques complexes dans le monde réel.

« Notre objectif ici était de traduire le modèle ADC dans un format qui le rende viable à intégrer dans la programmation de l’IA », déclare Dubljević. « Nous ne disons pas seulement que ce cadre éthique fonctionnerait bien pour l’IA, nous le présentons dans un langage accessible dans un contexte informatique.

« Avec l’essor des technologies de l’IA et de la robotique, la société a besoin de tels efforts de collaboration entre les éthiciens et les ingénieurs. Notre avenir en dépend. »

L’article est publié en libre accès dans IA et éthique.


Fourni par l’Université d’État de Caroline du Nord


A lire également