Un nouveau rapport pour aider les entreprises à mettre en œuvre une IA responsable

Un nouveau rapport pour aider les entreprises à mettre en œuvre une IA responsable

Crédit : CSIRO et le Gradient Institute

Des pratiques telles que les évaluations d’impact, la conservation des données, les mesures d’équité, les études pilotes et la formation organisationnelle sont quelques-unes des approches simples mais efficaces décrites dans un nouveau rapport qui peuvent aider les entreprises australiennes à développer une intelligence artificielle (IA) robuste et responsable.

Publié aujourd’hui, le nouveau rapport sur l’IA pour le National AI Center d’Australie, coordonné par le CSIRO, explore les étapes pratiques pour mettre en œuvre les huit principes d’éthique de l’IA du gouvernement australien.

Le rapport, « Implementing Australia’s AI Ethics Principles: A selection of Responsible AI practices and resources », a été élaboré par le Gradient Institute.

Cela vient du fait que le récent Australian Responsible AI Index a révélé que malgré 82 % des entreprises estimant qu’elles pratiquaient l’IA de manière responsable, moins de 24 % avaient mis en place des mesures réelles pour s’assurer qu’elles étaient alignées sur des pratiques d’IA responsables. Le directeur du National AI Center, Stela Solar, a déclaré que bien que les entreprises reconnaissent les opportunités commerciales de l’IA, beaucoup ne savent pas comment naviguer de manière responsable dans un environnement en évolution rapide et répondre aux attentes des clients.

« Ce rapport est conçu pour aider les entreprises à mettre en place des approches d’IA responsables dans leur organisation », a déclaré Solar.

« Les entreprises nous disent que leur capacité à innover avec l’IA est directement liée à leur capacité à gagner la confiance des communautés qu’elles desservent. Cela se reflète également dans le rapport australien AI Ecosystem Momentum qui a révélé que la confiance, la confidentialité, la sécurité, la qualité des données et les compétences étaient les principaux obstacles aux projets d’IA.

« Les systèmes d’IA qui sont développés sans freins et contrepoids appropriés peuvent avoir des conséquences imprévues qui peuvent nuire considérablement à la réputation de l’entreprise et à la fidélité des clients. »

Bill Simpson-Young, PDG du Gradient Institute, a déclaré qu’il espérait que le rapport encouragerait davantage d’entreprises à entamer le voyage vers des pratiques d’IA responsables.

« Même si les pratiques, les ressources et les normes d’IA responsable continueront d’évoluer à un rythme rapide, cela ne devrait pas empêcher les organisations de mettre en œuvre des pratiques connues pour être efficaces aujourd’hui », a déclaré M. Simpson-Young.

« Par exemple, lorsqu’un système d’IA interagit avec des personnes, informer les utilisateurs du fonctionnement d’une IA renforce la confiance et leur permet de prendre des décisions éclairées. La transparence pour les personnes concernées pourrait être aussi simple que d’informer l’utilisateur lorsqu’il interagit avec un système d’IA.

« Bien qu’il soit largement admis que l’équité est importante, ce qui constitue des résultats équitables ou un traitement équitable est sujet à interprétation et hautement contextuel. Ce qui constitue un résultat équitable peut dépendre des inconvénients et des avantages du système et de leur impact.

« Il incombe au propriétaire du système de consulter les parties concernées, les experts du domaine et les experts juridiques et les parties prenantes du système afin de déterminer comment contextualiser l’équité dans leur cas d’utilisation spécifique de l’IA. Le rapport aide les organisations à relever ces défis », a-t-il déclaré.

Le rapport est la première publication majeure développée par le biais du Responsible AI Network récemment annoncé par le National AI Center, une collaboration pionnière entre les écosystèmes visant à améliorer la pratique responsable de l’IA et la capacité souveraine à travers l’Australie.

Il est publié sous une licence Creative Commons par le National AI Center et le Gradient Institute pour inviter les organisations à partager activement leurs expériences et à développer des pratiques de mise en œuvre responsable de l’IA.