Les voitures autonomes manquent d'intelligence sociale dans la circulation

Cinq façons de rendre l’IA plus fiable

Les taxis autonomes parcourent le pays et entreront probablement en service dans le Colorado dans les mois à venir. Combien d’entre nous feront la queue pour faire un tour ? Cela dépend de notre niveau de confiance, explique Amir Behzadan, professeur au Département de génie civil, environnemental et architectural et membre de l'Institut des sciences du comportement (IBS) de CU Boulder.

Lui et son équipe de chercheurs du laboratoire de recherche sur l'informatique connectée et l'environnement bâti (CIBER) de CU Boulder découvrent de nouvelles informations sur la façon dont la technologie d'intelligence artificielle (IA) que nous pourrions rencontrer dans la vie quotidienne peut gagner notre confiance. Ils ont créé un cadre pour développer des outils d'IA fiables qui profitent aux personnes et à la société.

Dans un nouvel article de la revue IA et éthiqueBehzadan et son doctorat. L'étudiante Armita Dabiri s'est inspirée de ce cadre pour créer un outil d'IA conceptuel qui intègre les éléments de fiabilité.

« En tant qu'être humain, lorsque vous vous rendez vulnérable à un danger potentiel, en supposant que les autres ont des intentions positives, vous leur faites confiance », a déclaré Behzadan. « Et maintenant, vous pouvez amener ce concept des relations humain-humain aux relations humain-technologie. »

Comment se forme la confiance

Behzadan étudie les éléments constitutifs de la confiance humaine dans les systèmes d'IA utilisés dans l'environnement bâti, depuis les voitures autonomes et les systèmes de sécurité des maisons intelligentes jusqu'aux applications et systèmes de transports publics mobiles qui aident les gens à collaborer sur des projets de groupe. Il affirme que la confiance a un impact crucial sur la décision des gens de les adopter et de s'y fier ou non.

La confiance est profondément ancrée dans la civilisation humaine, selon Behzadan. Depuis l’Antiquité, la confiance a aidé les gens à coopérer, à partager leurs connaissances et leurs ressources, à nouer des liens communautaires et à se répartir le travail. Les premiers humains ont commencé à former des communautés et à faire confiance à ceux de leur entourage.

La méfiance est apparue comme un instinct de survie, rendant les gens plus prudents lorsqu'ils interagissent avec des personnes extérieures à leur groupe. Au fil du temps, le commerce entre groupes a encouragé différents groupes à interagir et à devenir interdépendants, mais il n’a pas éliminé la méfiance.

« Nous pouvons voir des échos de cette dynamique confiance-méfiance dans les attitudes modernes à l'égard de l'IA », explique Behzadan, « surtout si elle est développée par des entreprises, des gouvernements ou d'autres que nous pourrions considérer comme des « étrangers ». »

Alors, à quoi ressemble une IA digne de confiance ? Voici cinq points principaux à retenir du cadre de Behzadan.

1. Il connaît ses utilisateurs

De nombreux facteurs déterminent si, et dans quelle mesure, nous faisons confiance aux nouvelles technologies d’IA. Chacun de nous a sa propre inclination envers la confiance, qui est influencée par nos préférences, notre système de valeurs, nos croyances culturelles et même la façon dont notre cerveau est câblé.

« Notre compréhension de la confiance est vraiment différente d'une personne à l'autre », a déclaré Behzadan. « Même si vous disposez d'un système ou d'une personne très digne de confiance, notre réaction à ce système ou à cette personne peut être très différente. Vous pouvez leur faire confiance, et moi non. »

Il a déclaré qu'il était important que les développeurs réfléchissent à qui sont les utilisateurs d'un outil d'IA. Quelles normes sociales ou culturelles suivent-ils ? Quelles pourraient être leurs préférences ? Dans quelle mesure ont-ils des connaissances technologiques ?

Par exemple, Amazon Alexa, Google Assistant et d'autres assistants vocaux offrent un langage plus simple, des affichages de texte plus grands sur les appareils et un temps de réponse plus long pour les personnes âgées et les personnes qui ne sont pas aussi expertes en technologie, a déclaré Behzadan.

2. C'est fiable, éthique et transparent

La fiabilité technique fait généralement référence au fonctionnement d’un outil d’IA, à sa sécurité et à la facilité avec laquelle les utilisateurs comprennent son fonctionnement et la manière dont leurs données sont utilisées.

Un outil d’une fiabilité optimale doit faire son travail avec précision et cohérence, a déclaré Behzadan. En cas d’échec, cela ne devrait pas nuire aux personnes, aux biens ou à l’environnement. Il doit également assurer la sécurité contre les accès non autorisés, protéger la vie privée des utilisateurs et être capable de s'adapter et de continuer à fonctionner face à des changements inattendus. Il doit également être exempt de préjugés préjudiciables et ne doit pas faire de discrimination entre les différents utilisateurs.

La transparence est également essentielle. Behzadan affirme que certaines technologies d'IA, telles que les outils sophistiqués utilisés pour l'évaluation du crédit ou l'approbation des prêts, fonctionnent comme une « boîte noire » qui ne nous permet pas de voir comment nos données sont utilisées ni où elles vont une fois qu'elles sont dans le système. Si le système pouvait partager la façon dont il utilise les données et si les utilisateurs pouvaient voir comment il prend des décisions, a-t-il déclaré, davantage de personnes pourraient être disposées à partager leurs données.

Dans de nombreux contextes, comme le diagnostic médical, les outils d’IA les plus fiables devraient compléter l’expertise humaine et être transparents sur leur raisonnement avec les cliniciens experts, selon Behzadan.

Les développeurs d’IA doivent non seulement essayer de développer des outils fiables et éthiques, mais également trouver des moyens de mesurer et d’améliorer la fiabilité de leurs outils une fois qu’ils sont lancés auprès des utilisateurs visés.

3. Il prend en compte le contexte

Il existe d'innombrables utilisations des outils d'IA, mais un outil particulier doit être sensible au contexte du problème qu'il tente de résoudre.

Dans la dernière étude, Behzadan et le co-chercheur Dabiri ont créé un scénario hypothétique dans lequel une équipe de projet composée d'ingénieurs, d'urbanistes, de conservateurs historiques et de représentants du gouvernement avait été chargée de réparer et d'entretenir un bâtiment historique au centre-ville de Denver. Un tel travail peut être complexe et impliquer des priorités concurrentes, comme la rentabilité, les économies d'énergie, l'intégrité historique et la sécurité.

Les chercheurs ont proposé un outil d'assistance conceptuel à l'IA appelé PreservAI qui pourrait être conçu pour équilibrer les intérêts concurrents, intégrer les commentaires des parties prenantes, analyser différents résultats et compromis et collaborer utilement avec les humains plutôt que de remplacer leur expertise.

Idéalement, les outils d’IA devraient intégrer autant d’informations contextuelles que possible afin de pouvoir fonctionner de manière fiable.

4. Il est facile à utiliser et demande aux utilisateurs comment ça va

L'outil d'IA doit non seulement faire son travail efficacement, mais également offrir une bonne expérience utilisateur, en minimisant les erreurs, en engageant les utilisateurs et en créant des moyens de répondre aux frustrations potentielles, a déclaré Behzadan.

Un autre ingrédient clé pour instaurer la confiance ? Permettre réellement aux gens d’utiliser les systèmes d’IA et de contester les résultats de l’IA.

« Même si vous disposez du système le plus fiable, si vous ne laissez pas les gens interagir avec lui, ils ne lui feront pas confiance. Si très peu de personnes l'ont réellement testé, vous ne pouvez pas vous attendre à ce qu'une société entière lui fasse confiance et l'utilise », a-t-il déclaré.

Enfin, les parties prenantes devraient être en mesure de fournir des commentaires sur le fonctionnement de l'outil. Ces commentaires peuvent être utiles pour améliorer l’outil et le rendre plus fiable pour les futurs utilisateurs.

5. Lorsque la confiance est perdue, elle s'adapte pour la reconstruire

Notre confiance dans les nouvelles technologies peut évoluer avec le temps. Une personne peut généralement faire confiance aux nouvelles technologies et être enthousiaste à l’idée de monter dans un taxi autonome, mais si elle lit des reportages sur les taxis qui ont des accidents, elle peut commencer à perdre confiance.

Cette confiance pourra être rétablie plus tard, a déclaré Behzadan, même si les utilisateurs peuvent rester sceptiques quant à l'outil.

Par exemple, a-t-il déclaré, le chatbot « Tay » de Microsoft a échoué quelques heures après son lancement en 2016, car il avait capté des propos nuisibles sur les réseaux sociaux et commencé à publier des tweets offensants. L'incident a provoqué l'indignation du public. Mais plus tard la même année, Microsoft a lancé un nouveau chatbot, « Zo », doté d'un filtrage de contenu plus puissant et d'autres garde-fous. Bien que certains utilisateurs aient critiqué Zo comme un chatbot « censuré », sa conception améliorée a permis à davantage de personnes de lui faire confiance.

Il n’y a aucun moyen d’éliminer complètement le risque lié à la confiance en l’IA, a déclaré Behzadan. Les systèmes d’IA reposent sur la volonté des gens de partager des données : moins le système possède de données, moins il est fiable. Mais il existe toujours un risque que les données soient utilisées à mauvais escient ou que l’IA ne fonctionne pas comme elle est censée le faire.

Cependant, lorsque nous sommes prêts à utiliser des systèmes d’IA et à partager nos données avec eux, les systèmes deviennent meilleurs dans leur travail et plus fiables. Et même si aucun système n’est parfait, Behzadan estime que les avantages l’emportent sur les inconvénients.

« Lorsque les gens font suffisamment confiance aux systèmes d'IA pour partager leurs données et interagir de manière significative avec eux, ces systèmes peuvent s'améliorer considérablement, devenant plus précis, plus justes et plus utiles », a-t-il déclaré.

« La confiance n'est pas seulement un avantage pour la technologie ; c'est une voie permettant aux individus d'obtenir en retour un soutien plus personnalisé et plus efficace de la part de l'IA. »