Apprendre à des robots à apprendre à d'autres robots

L’IA n’est pas une baguette magique : elle comporte des problèmes intrinsèques difficiles à résoudre et qui peuvent être dangereux

À l’heure actuelle, nous avons tous beaucoup entendu et lu sur l’intelligence artificielle (IA). Vous avez probablement utilisé certains des innombrables outils d’IA qui deviennent disponibles. Pour certains, l’IA ressemble à une baguette magique qui prédit l’avenir.

Mais l’IA n’est pas parfaite. Un planificateur de repas dans un supermarché d'Aotearoa en Nouvelle-Zélande a proposé à ses clients des recettes empoisonnées, un chatbot de la ville de New York a conseillé aux gens d'enfreindre la loi et l'AI Overview de Google dit aux gens de manger des pierres.

À la base, un outil d’IA est un système particulier qui résout un problème particulier. Avec tout système d’IA, nous devons adapter nos attentes à ses capacités, et nombre d’entre elles dépendent de la façon dont l’IA a été construite.

Explorons quelques lacunes inhérentes aux systèmes d'IA.

Problèmes dans le monde réel

L’un des problèmes inhérents à tous les systèmes d’IA est qu’ils ne sont pas précis à 100 % dans des contextes réels. Par exemple, un système d’IA prédictive sera formé à l’aide de points de données du passé.

Si l’IA découvre alors quelque chose de nouveau, qui ne ressemble à rien des données d’entraînement, elle ne sera probablement pas en mesure de prendre la bonne décision.

À titre d’exemple hypothétique, prenons un avion militaire équipé d’un système de pilote automatique alimenté par l’IA. Ce système fonctionnera grâce à sa « base de connaissances » de formation. Mais une IA n’est pas vraiment une baguette magique, ce sont juste des calculs mathématiques. Un adversaire pourrait créer des obstacles que l'IA de l'avion ne peut pas « voir » car ils ne figurent pas dans les données d'entraînement, ce qui pourrait entraîner des conséquences potentiellement catastrophiques.

Malheureusement, nous ne pouvons pas faire grand-chose pour résoudre ce problème, à part essayer de former l’IA pour toutes les circonstances possibles que nous connaissons. Cela peut parfois s’avérer une tâche insurmontable.

Biais dans les données de formation

Vous avez peut-être entendu parler de l’IA qui prend des décisions biaisées. Habituellement, un biais se produit lorsque nous disposons de données déséquilibrées. En termes simples, cela signifie que lors de la formation du système d’IA, nous lui montrons trop d’exemples d’un type de résultat et très peu d’un autre type.

Prenons l'exemple d'un système d'IA formé pour prédire la probabilité qu'un individu donné commette un crime. Si les données sur la criminalité utilisées pour la formation du système contiennent principalement des personnes du groupe A (par exemple, une ethnie particulière) et très peu du groupe B, le système ne connaîtra pas les deux groupes de la même manière.

En conséquence, ses prédictions pour le groupe A donneront l’impression que ces personnes sont plus susceptibles de commettre des crimes que les personnes du groupe B. Si le système est utilisé sans esprit critique, la présence de ce biais peut avoir de graves conséquences éthiques.

Heureusement, les développeurs peuvent résoudre ce problème en « équilibrant » l'ensemble de données. Cela peut impliquer différentes approches, y compris l’utilisation de données synthétiques : des données générées par ordinateur et pré-étiquetées, conçues pour tester et entraîner l’IA et intégrant des contrôles pour se protéger contre les biais.

Être obsolète

Un autre problème avec l’IA peut survenir lorsqu’elle a été entraînée « hors ligne » et n’est pas au courant de la dynamique du problème sur lequel elle est censée travailler.

Un exemple simple serait un système d’IA développé pour prédire la température quotidienne dans une ville. Ses données d'entraînement contiennent toutes les informations passées sur les données de température pour cet emplacement.

Une fois que l’IA a terminé sa formation et est déployée, disons qu’un événement climatique grave perturbe la dynamique météorologique habituelle. Étant donné que le système d’IA effectuant les prédictions a été formé sur des données qui n’incluaient pas cette perturbation, ses prédictions deviendront de plus en plus inexactes.

La façon de résoudre ce problème consiste à entraîner l’IA « en ligne », ce qui signifie qu’elle reçoit régulièrement les dernières données de température tout en étant utilisée pour prédire les températures.

Cela semble être une excellente solution, mais la formation en ligne comporte quelques risques. Nous pouvons laisser le système d’IA s’entraîner lui-même en utilisant les données les plus récentes, mais il risque de devenir incontrôlable.

Fondamentalement, cela peut se produire à cause de la théorie du chaos, qui signifie en termes simples que la plupart des systèmes d’IA sont sensibles aux conditions initiales. Lorsque nous ne savons pas quelles données le système va rencontrer, nous ne pouvons pas savoir comment régler les conditions initiales pour contrôler les instabilités potentielles à l'avenir.

Quand les données ne sont pas correctes

Parfois, les données d’entraînement ne conviennent tout simplement pas. Par exemple, il se peut qu’il ne possède pas les qualités dont le système d’IA a besoin pour effectuer la tâche pour laquelle nous le formons.

Pour prendre un exemple extrêmement simplifié, imaginez un outil d'IA permettant d'identifier les personnes « grandes » et « petites ». Dans les données d'entraînement, une personne mesurant 170 cm doit-elle être étiquetée grande ou petite ? S'il est grand, que renverra le système lorsqu'il rencontrera une personne mesurant 169,5 cm ? (La meilleure solution serait peut-être d'ajouter une étiquette « moyenne ».)

Ce qui précède peut sembler trivial, mais des problèmes d’étiquetage des données ou des ensembles de données médiocres peuvent avoir des conséquences problématiques si le système d’IA est impliqué dans un diagnostic médical, par exemple.

Résoudre ce problème n’est pas facile, car l’identification des informations pertinentes nécessite beaucoup de connaissances et d’expérience. Faire appel à un expert en la matière dans le processus de collecte de données peut être une excellente solution, car cela peut guider les développeurs sur les types de données à inclure pour commencer.

En tant que (futurs) utilisateurs de l’IA et de la technologie, il est important que nous soyons tous conscients de ces questions afin d’élargir notre perspective sur l’IA et ses résultats prédictifs concernant différents aspects de nos vies.

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.La conversation