Lutter contre les « hallucinations » de l’IA et améliorer les algorithmes de détection des anomalies dans les systèmes industriels

Lutter contre les « hallucinations » de l’IA et améliorer les algorithmes de détection des anomalies dans les systèmes industriels

Des progrès significatifs dans la résolution du problème des « hallucinations » de l’IA et dans l’amélioration de la fiabilité des algorithmes de détection d’anomalies dans les infrastructures nationales critiques (INC) ont été réalisés par des scientifiques de l’École d’informatique de Bristol.

Les avancées récentes en intelligence artificielle ont mis en évidence le potentiel de cette technologie dans la détection d'anomalies, notamment dans les données des capteurs et des actionneurs des CNI. Cependant, ces algorithmes d'IA nécessitent souvent des temps de formation importants et peinent à identifier des composants spécifiques dans un état anormal. En outre, les processus de prise de décision de l'IA sont souvent opaques, ce qui suscite des inquiétudes quant à la confiance et à la responsabilité.

Pour lutter contre ce phénomène, l'équipe a mis en place un certain nombre de mesures visant à accroître l'efficacité, notamment :

  1. Détection d'anomalies améliorée : les chercheurs ont utilisé deux algorithmes de détection d'anomalies de pointe avec des temps de formation nettement plus courts et des capacités de détection plus rapides, tout en maintenant des taux d'efficacité comparables. Ces algorithmes ont été testés à l'aide d'un ensemble de données provenant du banc d'essai opérationnel de traitement de l'eau, SWaT, de l'Université de technologie et de design de Singapour.
  2. Intégration d’une IA explicable : pour améliorer la transparence et la confiance, l’équipe a intégré des modèles d’IA explicables aux détecteurs d’anomalies. Cette approche permet une meilleure interprétation des décisions de l’IA, permettant aux opérateurs humains de comprendre et de vérifier les recommandations de l’IA avant de prendre des décisions critiques. L’efficacité de divers modèles XAI a également été évaluée, ce qui permet de déterminer quels modèles facilitent le mieux la compréhension humaine.
  3. Prise de décision centrée sur l’humain : la recherche souligne l’importance de la supervision humaine dans les processus de prise de décision pilotés par l’IA. En expliquant les recommandations de l’IA aux opérateurs humains, l’équipe vise à garantir que l’IA agit comme un outil d’aide à la décision plutôt que comme un oracle incontesté. Cette méthodologie introduit la responsabilité, car les opérateurs humains prennent les décisions finales en fonction des informations, des politiques, des règles et des réglementations de l’IA.
  4. Développement d'un système de notation : un système de notation pertinent est en cours de développement pour mesurer la justesse et la fiabilité perçues des explications de l'IA. Ce score vise à aider les opérateurs humains à évaluer la fiabilité des informations fournies par l'IA.

Ces avancées améliorent non seulement l’efficacité et la fiabilité des systèmes d’IA dans les CNI, mais garantissent également que les opérateurs humains restent partie intégrante du processus de prise de décision, renforçant ainsi la responsabilité et la confiance globales.

Le Dr Sarad Venugopalan, co-auteur de l'étude, explique : « Les humains apprennent par répétition sur une période de temps plus longue et travaillent moins d'heures sans être sujets aux erreurs. C'est pourquoi, dans certains cas, nous utilisons des machines qui peuvent effectuer les mêmes tâches en une fraction du temps et avec un taux d'erreur réduit. »

« Cependant, cette automatisation, qui implique des composants cybernétiques et physiques, et l’utilisation ultérieure de l’IA pour résoudre certains des problèmes engendrés par l’automatisation, est traitée comme une boîte noire. Cela est préjudiciable car c’est le personnel qui utilise la recommandation de l’IA qui est tenu responsable des décisions prises par lui, et non l’IA elle-même.

« Dans notre travail, nous utilisons l'IA explicable, pour augmenter la transparence et la confiance, afin que le personnel utilisant l'IA soit informé des raisons pour lesquelles l'IA a fait la recommandation (pour notre cas d'utilisation de domaine) avant qu'une décision ne soit prise. »

Cette recherche fait partie de la thèse de maîtrise de Mathuros Kornkamon, sous la direction du Dr Sridhar Adepu. L'article est publié dans Actes du 10e atelier sur la sécurité des systèmes cyber-physiques de l'ACM.

Le Dr Adepu a ajouté : « Ce travail montre comment WaXAI révolutionne la détection des anomalies dans les systèmes industriels grâce à une IA explicable. En intégrant XAI, les opérateurs humains obtiennent des informations claires et une confiance accrue pour gérer les incidents de sécurité dans les infrastructures critiques. »