Des géants de la technologie contraints de révéler des secrets d'IA.  Voici comment cela pourrait améliorer la vie de tous

Des géants de la technologie contraints de révéler des secrets d’IA. Voici comment cela pourrait améliorer la vie de tous

Renforcer la transparence et la responsabilité de l’IA. Crédit : PopTika/Shutterstock

La Commission européenne oblige 19 géants de la technologie, dont Amazon, Google, TikTok et YouTube, à expliquer leurs algorithmes d’intelligence artificielle (IA) en vertu de la loi sur les services numériques. Demander ces informations à ces entreprises – plates-formes et moteurs de recherche comptant plus de 45 millions d’utilisateurs dans l’UE – est une étape indispensable pour rendre l’IA plus transparente et responsable. Cela rendra la vie meilleure pour tout le monde.

On s’attend à ce que l’IA affecte tous les aspects de notre vie, des soins de santé à l’éducation, en passant par ce que nous regardons et écoutons, et même la qualité de notre écriture. Mais l’IA génère également beaucoup de peur, tournant souvent autour d’un ordinateur semblable à un dieu devenant plus intelligent que nous, ou le risque qu’une machine chargée d’une tâche anodine puisse par inadvertance détruire l’humanité. Plus pragmatiquement, les gens se demandent souvent si l’IA va les rendre redondants.

Nous y sommes déjà allés : les machines et les robots ont déjà remplacé de nombreux ouvriers d’usine et employés de banque sans entraîner d’arrêt de travail. Mais les gains de productivité basés sur l’IA s’accompagnent de deux nouveaux problèmes : la transparence et la responsabilité. Et tout le monde sera perdant si nous ne réfléchissons pas sérieusement à la meilleure façon de résoudre ces problèmes.

Bien sûr, nous sommes maintenant habitués à être évalués par des algorithmes. Les banques utilisent un logiciel pour vérifier nos cotes de crédit avant de nous offrir un prêt hypothécaire, tout comme les compagnies d’assurance ou de téléphonie mobile. Les applications de covoiturage s’assurent que nous sommes suffisamment agréables avant de nous offrir un trajet. Ces évaluations utilisent une quantité limitée d’informations, sélectionnées par des humains : votre cote de solvabilité dépend de votre historique de paiements, votre cote Uber dépend de ce que les conducteurs précédents pensaient de vous.

Évaluations de la boîte noire

Mais les nouvelles technologies basées sur l’IA collectent et organisent des données sans être supervisées par des humains. Cela signifie qu’il est beaucoup plus compliqué de responsabiliser quelqu’un ou même de comprendre quels facteurs ont été utilisés pour arriver à une notation ou à une décision faite par la machine.

Que se passe-t-il si vous commencez à constater que personne ne vous rappelle lorsque vous postulez pour un emploi, ou que vous n’êtes pas autorisé à emprunter de l’argent ? Cela peut être dû à une erreur vous concernant quelque part sur Internet.

En Europe, vous avez le droit d’être oublié et de demander aux plateformes en ligne de supprimer les informations inexactes vous concernant. Mais il sera difficile de savoir quelle est l’information erronée si elle provient d’un algorithme non supervisé. Très probablement, aucun humain ne connaîtra la réponse exacte.

Si les erreurs sont mauvaises, la précision peut être encore pire. Que se passerait-il par exemple si vous laissiez un algorithme regarder toutes les données disponibles sur vous et évaluer votre capacité à rembourser un crédit ?

Un algorithme performant pourrait en déduire que, toutes choses égales par ailleurs, une femme, un membre d’un groupe ethnique qui tend à être discriminé, un habitant d’un quartier pauvre, quelqu’un qui parle avec un accent étranger ou qui ne beau », est moins solvable.

La recherche montre que ces types de personnes peuvent s’attendre à gagner moins que d’autres et sont donc moins susceptibles de rembourser leur crédit – les algorithmes le « sauront » également. Bien qu’il existe des règles pour empêcher les gens dans les banques de discriminer les emprunteurs potentiels, un algorithme agissant seul pourrait juger juste de facturer davantage ces personnes pour emprunter de l’argent. Une telle discrimination statistique pourrait créer un cercle vicieux : si vous devez payer plus pour emprunter, vous pourriez avoir du mal à effectuer ces remboursements plus élevés.

Même si vous interdisez à l’algorithme d’utiliser des données sur les caractéristiques protégées, il pourrait arriver à des conclusions similaires en fonction de ce que vous achetez, des films que vous regardez, des livres que vous lisez ou même de votre façon d’écrire et des blagues qui vous font rire. Pourtant, des algorithmes sont déjà utilisés pour filtrer les candidatures, évaluer les étudiants et aider la police.

Le coût de la précision

Outre les considérations d’équité, la discrimination statistique peut nuire à tout le monde. Une étude des supermarchés français a montré, par exemple, que lorsque des employés portant un nom à consonance musulmane travaillent sous la supervision d’un responsable préjugé, l’employé est moins productif car le préjugé du superviseur devient une prophétie auto-réalisatrice.

Les recherches sur les écoles italiennes montrent que les stéréotypes de genre affectent la réussite. Lorsqu’un enseignant pense que les filles sont plus faibles que les garçons en mathématiques et plus fortes en littérature, les élèves organisent leurs efforts en conséquence et l’enseignant a raison. Certaines filles qui auraient pu être de grands mathématiciens ou des garçons qui auraient pu être des écrivains incroyables peuvent finir par choisir la mauvaise carrière.

Lorsque les gens sont impliqués dans la prise de décision, nous pouvons mesurer et, dans une certaine mesure, corriger les préjugés. Mais il est impossible de responsabiliser les algorithmes non supervisés si nous ne connaissons pas les informations exactes qu’ils utilisent pour prendre leurs décisions.

Si l’IA doit vraiment améliorer nos vies, la transparence et la responsabilité seront donc essentielles, idéalement avant même que les algorithmes ne soient introduits dans un processus décisionnel. C’est l’objectif de la loi européenne sur l’intelligence artificielle. Ainsi, comme c’est souvent le cas, les règles de l’UE pourraient rapidement devenir la norme mondiale. C’est pourquoi les entreprises doivent partager les informations commerciales avec les régulateurs avant de les utiliser pour des pratiques sensibles telles que l’embauche.

Bien sûr, ce type de réglementation implique de trouver un équilibre. Les grandes entreprises technologiques voient l’IA comme la prochaine grande chose, et l’innovation dans ce domaine est également désormais une course géopolitique. Mais l’innovation ne se produit souvent que lorsque les entreprises peuvent garder une partie de leur technologie secrète, et il y a donc toujours le risque qu’une trop grande réglementation étouffe le progrès.

Certains pensent que l’absence de l’UE dans les innovations majeures en matière d’IA est une conséquence directe de ses lois strictes sur la protection des données. Mais à moins que nous ne rendions les entreprises responsables des résultats de leurs algorithmes, bon nombre des avantages économiques possibles du développement de l’IA pourraient de toute façon se retourner contre eux.