Transparence et explicabilité, deux concepts clés de l'IA
La plupart des analyses qui cherchent à comprendre les préoccupations concernant l’IA regroupent tout, ou presque, sous le terme « sécurité ». Des craintes liées à la perte de données sensibles à des problèmes tels que les hallucinations et biaisde la tactique de injection rapide De la transparence à l'explicabilité, tout semble aujourd'hui relever de la responsabilité de la « sécurité » en matière d'IA.
Si ces préoccupations sont tout à fait valables, elles sont très différentes et la plupart ne concernent pas directement la sécurité. Nous explorons les concepts de transparence et d’explicabilité, qui sont fondamentaux à comprendre et à appliquer lors de l’utilisation de l’IA au sein des entreprises.
Ensemble, la transparence et l'explicabilité contribuent non seulement à établir la confiance dans le système et ses résultats, mais ils prennent également en charge les systèmes de dépannage et de débogage, notamment pendant le développement.
Transparence et explicabilité, ce qu'elles signifient en IA
La transparence et l’explicabilité sont des concepts importants au niveau général, mais ils deviennent particulièrement pertinents dans le domaine de l’IA, étant donné que la plupart des professionnels, même dans le domaine informatique, ne connaissent pas le fonctionnement de ces systèmes. Ce sont des principes très souvent évoqués dans le contexte de l’IA éthique, de l’IA responsable et de la gouvernance de l’IA. Bien qu’ils soient étroitement liés, ils ont des significations distinctes et répondent à des objectifs différents dans la compréhension et la gestion des systèmes d’IA eux-mêmes.
La transparence vise à fournir des informations générales à un large public, y compris les parties prenantes, sur le système d'IA. L'explicabilité, quant à elle, est un concept plus spécifique et vise à clarifier les décisions ou les résultats individuels pour les utilisateurs, les développeurs et les parties prenantes qui ont besoin de comprendre le comportement du système.
La transparence vise à promouvoir la confiance dans le système, tandis que l'explicabilité se concentre sur l'établissement de la confiance dans des résultats spécifiques. Pour atteindre ces objectifs, la transparence et l’explicabilité se concentrent sur différents éléments.
Transparence : citez toujours vos sources
La transparence en IA fait référence au degré auquel les informations sur la conception, le fonctionnement et les processus décisionnels d'un système d'IA sont ouvertes, accessibles et compréhensibles pour les parties prenantes. Il met l’accent sur une communication claire et une visibilité sur le fonctionnement des systèmes d’IA, permettant aux parties prenantes de comprendre les différents aspects qui composent le système.
Les éléments clés de la transparence dans l’IA comprennent :
- Conception et développement: La transparence implique le partage d'informations sur la conception, l'architecture et les processus de formation des systèmes d'IA. Cela inclut le type de données utilisées, les algorithmes et les modèles mis en œuvre. Dans ce cas, le concept de transparence est similaire à celui des déclarations de services financiers dans lesquelles les prestataires expliquent quelles données et quels critères sont utilisés pour déterminer l’éligibilité à une hypothèque ou à une note d’agence d’évaluation du crédit.
- Données et entrées: La transparence nécessite de la clarté sur les sources et les types de données utilisées pour former et faire fonctionner le système d'IA. Cela inclut également la divulgation de tout prétraitement, transformation ou augmentation des données qui alimentent le système. Ce type d'informations est similaire aux déclarations de collecte de données, dans lesquelles les entreprises expliquent quelles données elles collectent, stockent et avec qui elles peuvent les partager.
- Gouvernance et responsabilité: Fournir des informations sur qui est responsable du développement, du déploiement et de la gouvernance du système d'IA aide les parties prenantes à comprendre la structure même des responsabilités.
Explicabilité : montre le travail effectué
L'explicabilité en IA fait référence à la capacité du système d'IA à expliquer de manière claire et compréhensible pourquoi il a pris certaines décisions, quels facteurs ont influencé ses résultats ou comment fonctionne son comportement. Il souligne ensuite l’importance d’expliquer pourquoi une décision particulière a été prise, en s’attachant à rendre les résultats de l’IA compréhensibles pour les utilisateurs et les parties prenantes.
Les éléments clés de l’explicabilité en IA comprennent :
- La justification des décisions: l'explicabilité implique que les facteurs et la logique qui ont conduit à une décision ou à un résultat spécifique par l'intelligence artificielle sont toujours clairs. En pratique, il s’agit de répondre à des questions comme «Pourquoi l’IA a-t-elle pris cette décision ? Et « Qu'est-ce qui a influencé ce résultat? » En substance, c'est comme faire une preuve en géométrie : il faut s'appuyer sur des axiomes pour expliquer le résultat.
- Interprétabilité du modèle: Il est important de créer des modèles d'IA interprétableafin que les parties prenantes puissent comprendre les mécanismes qui sous-tendent les décisions. Par exemple, tout le monde ne comprend pas le calcul avancé, donc une explication sous la forme d’une équation complexe ne suffit pas. Par exemple, il y a une différence notable entre la façon dont on travaille Réseau contradictoire génératif (GAN) et un Réseau neuronal convolutif (CNN) : révéler quelle approche architecturale est utilisée est un élément important de l’interprétabilité.
- Compréhension humaine : l'explication elle-même doit être partagée dans un format facilement compréhensible par les humains, y compris les non-experts. Cela nécessite que les opérations complexes de l’IA soient présentées de manière simple et claire. Il n’est pas possible de partager l’explication via du code, au contraire il est indispensable d’utiliser un format lisible par toutes les parties prenantes, y compris les équipes juridiques, conformité et ingénierie.
Bâtir la confiance dans l’IA
Il faut du temps pour gagner la confiance de chaque nouvelle technologie. Il y a quinze ans, personne ne faisait confiance aux applications d’autoscaling, mais elles sont aujourd’hui considérées comme essentielles. L'automatisation, quelle qu'elle soit, qu'il s'agisse de résoudre des problèmes mathématiques complexes, de conduire une voiture ou de payer des factures, prend du temps pour que les utilisateurs aient confiance. Là transparence sur le processus et le explication du fonctionnement du système peut réduire considérablement l’écart entre l’introduction et l’adoption.
La transparence offre une vue d'ensemble du fonctionnement du système d'IA, tandis que l'explicabilité clarifie les facteurs et la logique qui ont conduit à une décision ou à un résultat spécifique de l'IA. Ces deux éléments sont essentiels au succès de l’IA et permettent aux entreprises de bénéficier de ses avantages, tels qu’un meilleur service client, une productivité améliorée et des décisions plus rapides. Et ni l’un ni l’autre ne relève exclusivement du domaine de la sécurité !