L'auteur propose un modèle qui met en évidence les preuves d'équité

Les entreprises ne peuvent pas échapper à la révolution de l’IA. Voici donc comment construire une culture d’utilisation sûre et responsable

En novembre 2023, les successions de deux assurés aujourd’hui décédés ont poursuivi l’assureur maladie américain United Healthcare pour avoir déployé ce qu’ils prétendent être un système d’intelligence artificielle (IA) défectueux pour refuser systématiquement les réclamations des patients.

Le problème, affirment-ils, n’était pas seulement la manière dont l’IA avait été conçue. L’entreprise aurait également limité la capacité du personnel à annuler les décisions du système, même s’il pensait que le système était mauvais.

Ils affirment que l’entreprise est même allée jusqu’à punir le personnel qui n’agissait pas conformément aux prévisions du modèle.

Quelle que soit l’issue finale de cette affaire, qui reste devant le système judiciaire américain, les allégations formulées dans le cadre du procès mettent en évidence un défi crucial auquel sont confrontées les organisations.

Même si l’intelligence artificielle offre d’énormes possibilités, son utilisation sûre et responsable dépend de la présence des personnes, des compétences et de la culture adéquates pour la gouverner correctement.

Se mettre sur le devant de la scène

L’IA est omniprésente dans les entreprises, qu’elles le veuillent ou non. De nombreuses organisations australiennes évoluent rapidement en matière de technologie. Trop peu d’entreprises se concentrent sur la gestion proactive des risques.

Selon l’Australian Responsible AI Index 2024, 78 % des organisations interrogées affirment que leur utilisation de l’IA est conforme aux principes de l’IA responsable.

Pourtant, seulement 29 % ont déclaré avoir mis en œuvre des pratiques pour s’en assurer.

Parfois visible, parfois non

Dans certains cas, l’IA constitue un argument de vente très médiatisé pour de nouveaux produits, et les organisations prennent des décisions positives en l’adoptant.

Dans le même temps, ces systèmes sont de plus en plus cachés. Ils peuvent être utilisés par un fournisseur en amont, intégrés en tant que sous-composant d’un nouveau produit ou insérés dans un produit existant via une mise à jour logicielle automatique.

Parfois, ils sont même utilisés par le personnel de manière « fantôme », hors de la vue de la direction.

L’omniprésence – et la nature souvent cachée – de l’adoption de l’IA signifie que les organisations ne peuvent pas considérer la gouvernance de l’IA comme un simple exercice de conformité ou un défi technique.

Les dirigeants doivent plutôt se concentrer sur la création de capacités et d’une culture internes appropriées pour soutenir une utilisation sûre et responsable de l’IA dans l’ensemble de leurs opérations.

Que faut-il faire correctement

Une recherche menée par l’Institut de technologie humaine de l’Université de technologie de Sydney met en évidence trois éléments essentiels que les organisations doivent maîtriser.

Premièrement, il est absolument essentiel que les conseils d’administration et les cadres supérieurs aient une compréhension suffisante de l’IA pour pouvoir assurer une surveillance significative.

Cela ne signifie pas qu’ils doivent devenir des experts techniques. Mais les administrateurs doivent avoir ce que nous appelons une « compréhension minimale viable » de l’IA. Ils doivent être capables de repérer les opportunités et les risques stratégiques de la technologie et de poser les bonnes questions à la direction.

S’ils ne disposent pas de cette expertise, ils peuvent rechercher une formation, recruter de nouveaux membres qui la possèdent ou créer un comité consultatif d’experts en IA.

Une responsabilité claire

Deuxièmement, les organisations doivent créer des lignes claires de responsabilité en matière de gouvernance de l’IA. Ceux-ci devraient confier des tâches claires à des personnes spécifiques dotées de niveaux d’autorité appropriés.

Un certain nombre de grandes entreprises le font déjà, en nommant un cadre supérieur aux responsabilités explicitement définies. Il s’agit avant tout d’un rôle de gouvernance, qui nécessite un mélange unique de compétences : de solides capacités de leadership, des connaissances techniques et la capacité de travailler avec plusieurs départements.

Troisièmement, les organisations doivent créer un cadre de gouvernance doté de processus simples et efficaces pour examiner leurs utilisations de l’IA, identifier les risques et trouver des moyens de les gérer.

Avant tout, construire la bonne culture

Peut-être plus important encore, les organisations doivent cultiver une culture de soutien critique autour de l’utilisation de l’IA.

Qu’est-ce que cela signifie? Il s’agit d’un environnement dans lequel le personnel, à tous les niveaux, comprend à la fois le potentiel et les risques de l’IA et se sent habilité à faire part de ses préoccupations.

La « Politique d’IA responsable » de Telstra est une étude de cas de bonnes pratiques dans un environnement d’entreprise complexe.

Pour garantir que le conseil d’administration et la haute direction aient une bonne vision des activités et des risques liés à l’IA, Telstra a créé un comité de surveillance dédié à l’examen des systèmes d’IA à fort impact.

Le comité rassemble des experts et des représentants des équipes juridiques, des données, de la cybersécurité, de la confidentialité, des risques et autres pour évaluer les risques potentiels et formuler des recommandations.

Il est important de noter que l’entreprise a également investi dans la formation de tout le personnel sur les risques et la gouvernance de l’IA.

Amener tout le monde avec vous

L’élément culturel est particulièrement crucial en raison de la manière dont se déroule généralement l’adoption de l’IA.

Nos recherches précédentes suggèrent que de nombreux travailleurs australiens ont le sentiment que l’IA leur est imposée sans consultation ni formation adéquates.

Cela ne crée pas seulement du recul. Cela peut également signifier que les organisations passent à côté d’informations importantes sur la manière dont leur personnel utilise réellement l’IA pour créer de la valeur et résoudre des problèmes.

En fin de compte, notre succès collectif en matière d’IA ne dépend pas tant de la technologie elle-même que des systèmes humains que nous construisons autour d’elle.

Ceci est important, que vous dirigiez une organisation ou que vous travailliez pour une. Ainsi, la prochaine fois que vos collègues commenceront à discuter d’une opportunité d’acheter ou d’utiliser l’IA d’une nouvelle manière, ne vous concentrez pas uniquement sur la technologie.

Demandez : « Qu’est-ce qui doit être vrai à propos de nos employés, de nos compétences et de notre culture pour que cela réussisse ? »