Comment « l’IA explicable » peut nous aider à comprendre le fonctionnement des algorithmes
Lorsque vous visitez un hôpital, les modèles d’intelligence artificielle (IA) peuvent aider les médecins en analysant des images médicales ou en prédisant les résultats des patients sur la base de données historiques. Si vous postulez à un emploi, les algorithmes d’IA peuvent être utilisés pour filtrer les curriculum vitae, classer les candidats et même mener des entretiens initiaux. Lorsque vous souhaitez regarder un film sur Netflix, un algorithme de recommandation prédit quels films vous êtes susceptible d'apprécier en fonction de vos habitudes de visionnage. Même lorsque vous conduisez, des algorithmes prédictifs sont à l'œuvre dans des applications de navigation telles que Waze et Google Maps, optimisant les itinéraires et prédisant les modèles de trafic pour garantir des déplacements plus rapides.
Sur le lieu de travail, des outils basés sur l'IA comme ChatGPT et GitHub Copilot sont utilisés pour rédiger des e-mails, écrire du code et automatiser des tâches répétitives, des études suggérant que l'IA pourrait automatiser jusqu'à 30 % des heures travaillées d'ici 2030.
Mais un problème commun à ces systèmes d’IA est que leur fonctionnement interne est souvent complexe à comprendre, non seulement pour le grand public, mais aussi pour les experts ! Cela limite la manière dont nous pouvons utiliser les outils d’IA dans la pratique. Pour résoudre ce problème et s'aligner sur les exigences réglementaires croissantes, un domaine de recherche connu sous le nom d'« IA explicable » a vu le jour.
IA et machine learning : qu’y a-t-il dans un nom ?
Avec l’évolution actuelle vers l’intégration de l’IA dans les organisations et la médiatisation généralisée de son potentiel, il est facile de se tromper, surtout avec autant de termes qui circulent pour désigner les systèmes d’IA, notamment l’apprentissage automatique, l’apprentissage profond et les grands modèles de langage, pour nommer mais quelques-uns.
En termes simples, l’IA fait référence au développement de systèmes informatiques qui effectuent des tâches nécessitant l’intelligence humaine telles que la résolution de problèmes, la prise de décision et la compréhension d’un langage. Il englobe divers sous-domaines comme la robotique, la vision par ordinateur et la compréhension du langage naturel.
Un sous-ensemble important de l’IA est apprentissage automatiquequi permet aux ordinateurs d'apprendre à partir des données au lieu d'être explicitement programmés pour chaque tâche. Essentiellement, la machine examine les modèles présents dans les données et utilise ces modèles pour faire des prédictions ou prendre des décisions. Par exemple, pensez à un filtre anti-spam pour les e-mails. Le système est formé avec des milliers d’exemples d’e-mails spam et non spam. Au fil du temps, il apprend des modèles tels que des mots spécifiques, des expressions ou des informations sur l'expéditeur qui sont courants dans le spam.
Apprentissage profondun autre sous-ensemble de l'apprentissage automatique, utilise des réseaux neuronaux complexes comportant plusieurs couches pour apprendre des modèles encore plus sophistiqués. Il a été démontré que l'apprentissage profond est d'une valeur exceptionnelle lorsque l'on travaille avec des données d'images ou textuelles et constitue la technologie de base à la base de divers outils de reconnaissance d'images ou de grands modèles de langage tels que ChatGPT.
Réguler l’IA
Les exemples ci-dessus démontrent la large application de l’IA dans différents secteurs. Plusieurs de ces scénarios, comme la suggestion de films sur Netflix, semblent relativement peu risqués. Cependant, d'autres, comme le recrutement, la notation de crédit ou le diagnostic médical, peuvent avoir un impact important sur la vie d'une personne, il est donc crucial que ces événements se produisent d'une manière conforme à nos objectifs éthiques.
Consciente de cela, l’Union européenne a proposé la loi sur l’IA, que son parlement a approuvée en mars. Ce cadre réglementaire classe les applications de l’IA en quatre niveaux de risque différents : inacceptable, élevé, limité et minime, en fonction de leur impact potentiel sur la société et les individus. Chaque niveau est soumis à différents degrés de réglementation et d'exigences.
Les systèmes d’IA à risque inacceptable, tels que les systèmes utilisés pour la notation sociale ou la police prédictive, sont interdits dans l’UE, car ils constituent des menaces importantes pour les droits de l’homme.
Les systèmes d’IA à haut risque sont autorisés, mais ils sont soumis à la réglementation la plus stricte, car ils peuvent potentiellement causer des dommages importants s’ils échouent ou sont utilisés à mauvais escient, notamment dans des contextes tels que les forces de l’ordre, le recrutement et l’éducation.
Les systèmes d’IA à risque limité, tels que les chatbots ou les systèmes de reconnaissance des émotions, comportent un certain risque de manipulation ou de tromperie. Il est ici important que les humains soient informés de leur interaction avec le système d’IA.
Les systèmes d’IA à risque minimal incluent tous les autres systèmes d’IA, tels que les filtres anti-spam, qui peuvent être déployés sans restrictions supplémentaires.
Le besoin d’explicabilité
De nombreux consommateurs ne sont plus disposés à accepter que les entreprises imputent leurs décisions aux algorithmes de la boîte noire. Prenez l’incident de la Apple Card, où un homme s’est vu accorder une limite de crédit nettement plus élevée que sa femme, malgré leurs actifs partagés. Cela a suscité l’indignation du public, car Apple n’a pas été en mesure d’expliquer le raisonnement derrière la décision de son algorithme. Cet exemple met en évidence le besoin croissant d’explicabilité dans les décisions basées sur l’IA, non seulement pour garantir la satisfaction des clients, mais également pour éviter une perception négative du public.
Pour les systèmes d’IA à haut risque, l’article 86 de la loi sur l’IA établit le droit de demander une explication des décisions prises par les systèmes d’IA, ce qui constitue une étape importante vers la garantie de la transparence algorithmique.
Cependant, au-delà de la conformité légale, les systèmes d'IA transparents offrent plusieurs autres avantages à la fois aux propriétaires de modèles et à ceux concernés par les décisions des systèmes.
IA transparente
Premièrement, la transparence renforce la confiance : lorsque les utilisateurs comprennent le fonctionnement d’un système d’IA, ils sont plus susceptibles de s’y intéresser. Deuxièmement, cela peut éviter des résultats biaisés, en permettant aux régulateurs de vérifier si un modèle favorise injustement des groupes spécifiques. Enfin, la transparence permet l’amélioration continue des systèmes d’IA en révélant des erreurs ou des modèles inattendus.
Mais comment pouvons-nous parvenir à la transparence dans l’IA ?
En général, il existe deux approches principales pour rendre les modèles d’IA plus transparents.
Premièrement, on pourrait utiliser des modèles simples comme des arbres de décision ou des modèles linéaires pour faire des prédictions. Ces modèles sont faciles à comprendre car leur processus de prise de décision est simple. Par exemple, un modèle de régression linéaire pourrait être utilisé pour prédire les prix des logements en fonction de caractéristiques telles que le nombre de chambres, la superficie en pieds carrés et l'emplacement. La simplicité réside dans le fait que chaque caractéristique se voit attribuer un poids et que la prédiction est simplement la somme de ces caractéristiques pondérées. Cela signifie que l’on peut clairement voir comment chaque caractéristique contribue à la prévision finale du prix de l’immobilier.
Cependant, à mesure que les données deviennent plus complexes, ces modèles simples risquent de ne plus fonctionner suffisamment bien.
C'est pourquoi les développeurs se tournent souvent vers des « modèles de boîte noire » plus avancés, comme les réseaux de neurones profonds, qui peuvent gérer des données plus volumineuses et plus complexes mais sont difficiles à interpréter. Par exemple, un réseau neuronal profond comportant des millions de paramètres peut atteindre des performances très élevées, mais la manière dont il prend ses décisions n’est pas compréhensible pour les humains, car son processus de prise de décision est trop vaste et complexe.
IA explicable
Une autre option consiste à utiliser ces puissants modèles de boîte noire avec un algorithme d’explication distinct pour clarifier le modèle ou ses décisions. Cette approche, dite « IA explicable », permet de bénéficier de la puissance de modèles complexes tout en offrant un certain niveau de transparence.
Une méthode bien connue est l’explication contrefactuelle. Une explication contrefactuelle explique la décision d'un modèle en identifiant des changements minimes dans les caractéristiques d'entrée qui conduiraient à une décision différente.
Par exemple, si un système d'IA refuse un prêt à quelqu'un, une explication contrefactuelle pourrait informer le demandeur : « Si votre revenu avait été supérieur de 5 000 $, votre prêt aurait été approuvé.« . Cela rend la décision plus compréhensible alors que le modèle d'apprentissage automatique utilisé peut encore être très complexe. Cependant, un inconvénient est que ces explications sont des approximations, ce qui signifie qu'il peut y avoir plusieurs façons d'expliquer la même décision.
La route à suivre
À mesure que les modèles d’IA deviennent de plus en plus complexes, leur potentiel d’impact transformateur augmente, tout comme leur capacité à commettre des erreurs. Pour que l’IA soit véritablement efficace et fiable, les utilisateurs doivent comprendre comment ces modèles prennent leurs décisions.
La transparence n’est pas seulement une question de confiance, mais elle est également cruciale pour détecter les erreurs et garantir l’équité. Par exemple, dans les voitures autonomes, l’IA explicable peut aider les ingénieurs à comprendre pourquoi la voiture a mal interprété un panneau d’arrêt ou n’a pas reconnu un piéton. De même, lors du recrutement, comprendre comment un système d’IA classe les candidats peut aider les employeurs à éviter les sélections biaisées et à promouvoir la diversité.
En nous concentrant sur des systèmes d’IA transparents et éthiques, nous pouvons garantir que la technologie sert à la fois les individus et la société de manière positive et équitable.