Un nouveau cadre guide l'utilisation éthique de l'IA dans la prise de décision financière
Dans le monde de la haute finance, les entreprises cachent leurs paris sur l'intelligence artificielle (IA). En effet, l'IA a déjà été utilisée dans le commerce algorithmique et la détection de fraude. À mesure que la technologie devient plus puissante et plus autonome, il est donc urgent de mettre en place des contrôles et des équilibres pour assurer une utilisation éthique et valide de ces outils.
Recherche publiée dans le Journal international des systèmes d'information commerciale Offre désormais une réponse structurée aux différents défis et propose un cadre pratique pour aider les institutions financières à mettre en œuvre des systèmes d'IA éthiques fondés sur la transparence, l'interprétabilité et la responsabilité.
Les chercheurs expliquent que «l'explicabilité» est la clé du développement et de l'utilisation de l'IA éthiquement en finance. Malheureusement, le terme lui-même n'a pas de définition opérationnelle claire. Il peut être décrit comme englobant trois dimensions interdépendantes: la transparence (la capacité de voir comment une décision a été prise), l'interprétabilité (la capacité de comprendre cette décision) et la responsabilité (clarté sur qui est responsable). Ces idées sont particulièrement cruciales dans les domaines à enjeux élevés tels que les prêts et l'assurance, où les décisions algorithmiques peuvent affecter directement la vie des gens ainsi que les bénéfices de l'entreprise.
Il existe déjà des exemples de là où les systèmes d'IA opaques ont renforcé les inégalités existantes afin que les modèles de score de crédit et les algorithmes de prix d'assurance, formés sur des données historiques, puissent désavantager les femmes et les groupes minoritaires. Cela ne se produit pas nécessairement délibérément, mais simplement par les biais inhérents aux données de formation. Qu'ils soient intentionnels ou non, les résultats peuvent toujours être dommageables et deviennent également plus difficiles à corriger une fois que les systèmes automatisés sont intégrés dans les systèmes d'une entreprise.
L'étude s'inspire de la recherche interdisciplinaire et des entretiens d'experts et introduit un «cadre de maturité» conçu pour rendre l'explicabilité exploitable. Plutôt que de traiter l'éthique comme un exercice de case à cocher ou un ensemble d'idéaux abstraits, le cadre décrit les étapes incrémentielles que les organisations peuvent, et devraient peut-être prendre, en fonction de leur sophistication technologique et de la complexité des modèles d'IA qu'ils utilisent.
Le cadre bénéficie d'une adaptabilité inhérente, reconnaissant dès le début qu'une solution « à une taille » n'est ni réaliste ni souhaitable. Au lieu de cela, il offre une voie adaptée à différents contextes institutionnels, encourageant une amélioration continue au fil du temps. Parmi ses pratiques recommandées figurent l'adoption de modèles d'IA interprétables, dont le fonctionnement interne peut être facilement compris par les humains, créant des comités d'éthique interne et effectuant des audits réguliers pour les préjugés et l'équité.