Pouvons-nous débarrasser l’intelligence artificielle de ses préjugés ?

Pouvons-nous débarrasser l’intelligence artificielle de ses préjugés ?

L’intelligence artificielle construite sur des montagnes d’informations potentiellement biaisées a créé un risque réel d’automatisation des discriminations, mais existe-t-il un moyen de rééduquer les machines ?

La question est pour certains extrêmement urgente. À l’ère de ChatGPT, l’IA générera de plus en plus de décisions pour les prestataires de soins de santé, les prêteurs bancaires ou les avocats, en utilisant comme source tout ce qui a été récupéré sur Internet.

L’intelligence sous-jacente de l’IA est donc aussi bonne que le monde dont elle est issue, aussi susceptible d’être remplie d’esprit, de sagesse et d’utilité, ainsi que de haine, de préjugés et de diatribes.

« C'est dangereux parce que les gens adoptent les logiciels d'IA et en dépendent vraiment », a déclaré Joshua Weaver, directeur du Texas Opportunity & Justice Incubator, un cabinet de conseil juridique.

« Nous pouvons entrer dans cette boucle de rétroaction où les préjugés en nous-mêmes et dans la culture informent les préjugés de l'IA et deviennent une sorte de boucle de renforcement », a-t-il déclaré.

Veiller à ce que la technologie reflète plus fidèlement la diversité humaine n’est pas seulement un choix politique.

D’autres utilisations de l’IA, comme la reconnaissance faciale, ont vu des entreprises se retrouver dans une situation délicate avec les autorités pour discrimination.

Ce fut le cas contre Rite-Aid, une chaîne de pharmacies américaine, où des caméras en magasin ont faussement identifié les consommateurs, en particulier les femmes et les personnes de couleur, comme des voleurs à l'étalage, selon la Federal Trade Commission.

« Je me suis trompé »

L'IA générative de type ChatGPT, qui peut créer un semblant de raisonnement au niveau humain en quelques secondes seulement, ouvre de nouvelles opportunités de se tromper, s'inquiètent les experts.

Les géants de l’IA sont bien conscients du problème, craignant que leurs modèles ne conduisent à de mauvais comportements ou ne reflètent excessivement une société occidentale alors que leur base d’utilisateurs est mondiale.

« Nous avons des gens qui posent des questions depuis l'Indonésie ou les États-Unis », a déclaré Sundar Pichai, PDG de Google, expliquant pourquoi les demandes d'images de médecins ou d'avocats s'efforceront de refléter la diversité raciale.

Mais ces considérations peuvent atteindre des niveaux absurdes et conduire à des accusations virulentes de politiquement correct excessif.

C'est ce qui s'est passé lorsque le générateur d'images Gemini de Google a craché une image de soldats allemands de la Seconde Guerre mondiale qui comprenait de manière absurde un homme noir et une femme asiatique.

« De toute évidence, l'erreur a été que nous avons trop appliqué… là où cela n'aurait jamais dû s'appliquer. C'était un bug et nous nous sommes trompés », a déclaré Pichai.

Mais Sasha Luccioni, chercheuse chez Hugging Face, une plateforme leader pour les modèles d'IA, a averti que « penser qu'il existe une solution technologique aux préjugés, c'est déjà en quelque sorte s'engager sur la mauvaise voie ».

L'IA générative consiste essentiellement à savoir si le résultat « correspond à ce que l'utilisateur attend » et cela est largement subjectif, a-t-elle déclaré.

Les énormes modèles sur lesquels ChatGPT est construit « ne peuvent pas raisonner sur ce qui est biaisé ou ce qui ne l'est pas, ils ne peuvent donc rien y faire », a averti Jayden Ziegler, responsable produit chez Alembic Technologies.

Pour l’instant du moins, c’est aux humains de veiller à ce que l’IA génère tout ce qui est approprié ou répond à leurs attentes.

Biais « cuit au four »

Mais étant donné la frénésie autour de l’IA, ce n’est pas une tâche facile.

Hugging Face dispose d'environ 600 000 modèles d'IA ou d'apprentissage automatique disponibles sur sa plateforme.

« Toutes les deux semaines, un nouveau modèle sort et nous nous efforçons de simplement évaluer et documenter les préjugés ou les comportements indésirables », a déclaré Luccioni.

Une méthode en cours de développement est ce qu'on appelle le dégorgement algorithmique qui permettrait aux ingénieurs d'exciser le contenu, sans ruiner l'ensemble du modèle.

Mais il y a de sérieux doutes que cela puisse réellement fonctionner.

Une autre méthode consisterait à « encourager » un modèle à aller dans la bonne direction, à le « peaufiner », à « récompenser le bien et le mal », a déclaré Ram Sriharsha, directeur de la technologie chez Pinecone.

Pinecone est un spécialiste de la génération augmentée par récupération (ou RAG), une technique où le modèle récupère des informations à partir d'une source fixe et fiable.

Pour Weaver du Texas Opportunity & Justice Incubator, ces « nobles » tentatives pour remédier aux préjugés sont « des projections de nos espoirs et de nos rêves sur ce à quoi pourrait ressembler une meilleure version de l’avenir ».

Mais les préjugés « sont également inhérents à ce que signifie être humain et, de ce fait, ils sont également ancrés dans l’IA », a-t-il déclaré.