Trouver la bonne IA pour vous

Une étude révèle que les explications limitées de l'IA pourraient profiter aux consommateurs

Les algorithmes récents en intelligence artificielle (IA) sont souvent appelés modèles de « boîte noire », ce qui signifie que leurs entrées et opérations ne sont pas visibles par l'utilisateur ou toute autre partie, ce qui rend leurs décisions difficiles à interpréter. eXplainable AI (XAI) est une classe de méthodes qui cherche à remédier au manque d’interprétabilité et de confiance de l’IA en expliquant les décisions de l’IA aux clients.

De nombreux experts estiment que réglementer l’IA en rendant obligatoire une XAI totalement transparente conduit à un plus grand bien-être social. Cependant, une nouvelle étude de la Tepper School of Business de l’Université Carnegie Mellon remet en question cette notion, concluant qu’une telle réglementation pourrait conduire à des résultats loin d’être optimaux, tant pour les entreprises utilisant l’IA que pour les consommateurs.

L'étude menée par des chercheurs de Carnegie Mellon et de l'Université de Californie du Sud a été acceptée pour publication dans Sciences du marketing.

« Les défenseurs des consommateurs appellent de plus en plus à réglementer l'IA et à rendre obligatoire une XAI de plus en plus transparente », a déclaré Behnam Mohammadi, Ph.D. candidat à l’école Tepper, co-auteur de l’étude.

« Les entreprises subissent des pressions de la part des législateurs et des clients pour qu'elles adhèrent à des pratiques responsables en matière d'IA, mais nous savons peu de choses sur les implications économiques de XAI. Nous avons approfondi les complexités des réglementations XAI pour en savoir plus sur leur impact sur la concurrence entre les entreprises et la protection sociale. « .

Ces dernières années, l’utilisation des modèles d’IA pour la prise de décision a considérablement augmenté, des milliards de dollars étant dépensés à l’échelle mondiale pour cette technologie. Mais l’un des principaux défis réside dans l’interprétabilité des décisions et des prévisions de l’IA.

Les premiers modèles étaient faciles à interpréter, mais les méthodes les plus récentes (par exemple, les réseaux neuronaux profonds) comportent des systèmes de décision opaques, et de nombreuses personnes hésitent à adopter des algorithmes qui ne sont pas facilement interprétables, contrôlables et dignes de confiance. Cela est particulièrement problématique lorsque les modèles de boîte noire aboutissent à des résultats biaisés, par exemple en diffusant moins d'annonces pour des emplois bien rémunérés auprès des femmes qu'auprès des hommes ou en ne reconnaissant pas les visages non blancs.

XAI est une classe de méthodes qui vise à produire des modèles « boîte de verre » explicables par les gens tout en conservant la précision des prédictions. Ils cherchent à permettre aux personnes, y compris aux experts non techniques, de comprendre, de faire confiance et de gérer efficacement les systèmes d'IA émergents. Parallèlement aux appels des militants des consommateurs en faveur de ce type de méthode, XAI a gagné du terrain dans les secteurs de la santé, de la vente au détail, des médias et du divertissement, ainsi que de l'aérospatiale et de la défense.

Les clients et les entreprises attendent-ils des choses différentes de XAI ? Et si oui, comment définir les règles du XAI ? Les chercheurs ont étudié une situation dans laquelle deux grandes entreprises dominent le marché, en se concentrant spécifiquement sur le secteur de l’assurance, un domaine qui utilise l’IA pour décider des tarifs. L’étude a révélé que dans les endroits où il n’y a pas de règles, les entreprises et les clients souhaitent souvent différents niveaux d’explication de la part de l’IA.

« Parfois, des explications complètes peuvent être mauvaises pour les clients. Ils préféreront peut-être que les entreprises n'expliquent pas tout, ce qui pourrait conduire à de meilleurs produits », a déclaré Nikhil Malik, professeur adjoint de marketing à la Marshall School of Business de l'Université de Californie du Sud. , qui a co-écrit l’étude.

L’étude conclut que des explications partielles pourraient s’avérer préférables tant pour les consommateurs que pour les entreprises. En fait, les auteurs ont été surpris de constater que des explications complètes pouvaient aggraver la situation des consommateurs ; les consommateurs peuvent préférer que l’une ou les deux entreprises fixent un XAI inférieur à la totalité, ce qui encouragerait les entreprises à proposer des produits de meilleure qualité.

Leur principale conclusion, qui, selon eux, pourrait être contre-intuitive, est que réglementer un produit d’IA pour fournir des explications complètes n’est pas une stratégie réglementaire recommandée. Au lieu de cela, la politique XAI optimale permettrait aux entreprises de proposer des politiques flexibles de XAI facultatif et de différencier leurs niveaux de XAI, ce qui pourrait contribuer au bien-être social.

« Sur la base de nos conclusions, nous exhortons les décideurs politiques à envisager une approche plus nuancée lors de l'élaboration des réglementations XAI », a noté Tim Derdenger, professeur agrégé de marketing et de stratégie à la Tepper School et co-auteur de l'étude. « Une politique universelle sur tous les marchés, en particulier une politique qui exige des explications complètes, pourrait ne pas produire les résultats escomptés. »

Kannan Srinivasan, co-auteur de l'étude et professeur de gestion et de marketing à la Tepper School, a noté qu'à mesure que l'IA occupe une place centrale dans les entreprises, un certain nombre de solutions sont proposées pour atténuer les risques associés à l'IA.

« La transparence est considérée comme un mécanisme permettant d'atténuer les biais potentiels dans les algorithmes d'IA. Notre analyse montre que ce n'est peut-être pas le cas », a déclaré Srinivasan.