L'IA explicable pour la navigation des navires augmente la confiance, diminue l'erreur humaine

L’IA explicable pour la navigation des navires augmente la confiance, diminue l’erreur humaine

Le Titanic a coulé il y a 113 ans du 14 au 15 avril, après avoir frappé un iceberg, avec une erreur humaine provoquant probablement le navire dans ces eaux dangereuses. Aujourd’hui, des systèmes autonomes construits sur l’intelligence artificielle peuvent aider les navires à éviter de tels accidents, mais un tel système pourrait-il expliquer au capitaine pourquoi il manœuvrait d’une certaine manière?

C’est l’idée derrière l’IA explicable, qui devrait aider les acteurs humains à faire davantage confiance aux systèmes autonomes.

Des chercheurs de la Graduate School of Engineering de l’Université d’Osaka Metropolitan ont développé un modèle d’IA explicable pour les navires qui quantifie le risque de collision pour tous les navires dans une zone donnée, une caractéristique importante, car les terrains de mer clés sont devenus de plus en plus encombrés. Les résultats ont été publiés dans Recherche sur l’océan appliquée.

L’étudiant diplômé Hitoshi Yoshioka et le professeur Hirotada Hashimoto ont créé le modèle d’IA afin qu’il explique la base de ses décisions et l’intention derrière les actions utilisant des valeurs numériques pour le risque de collision.

« En étant en mesure d’expliquer la base des jugements et des intentions comportementales de la navigation autonome basée sur l’IA, je pense que nous pouvons gagner la confiance des travailleurs maritimes », a déclaré le professeur Hashimoto. « Je crois également que cette recherche peut contribuer à la réalisation de navires sans pilote. »