L'outil de recherche active visuelle combine l'apprentissage par renforcement profond et les méthodes de recherche active traditionnelles

L’outil de recherche active visuelle combine l’apprentissage par renforcement profond et les méthodes de recherche active traditionnelles

Dans l’exploration géospatiale, la quête d’une identification efficace des régions d’intérêt a récemment fait un bond en avant grâce à la recherche visuelle active (VAS). Ce cadre de modélisation utilise des repères visuels pour guider l’exploration avec des applications potentielles allant de la détection du braconnage d’animaux sauvages aux missions de recherche et de sauvetage en passant par l’identification d’activités de trafic illégal.

Une nouvelle approche du VAS développée à la McKelvey School of Engineering de l’Université de Washington à St. Louis combine l’apprentissage par renforcement profond, où un ordinateur peut apprendre à prendre de meilleures décisions par essais et erreurs, avec la recherche active traditionnelle, où des chercheurs humains sortent et vérifient. ce qu’il y a dans une région sélectionnée.

L’équipe qui a développé le nouveau cadre VAS comprend Yevgeniy Vorobeychik et Nathan Jacobs, professeurs d’informatique et d’ingénierie, et Anindya Sarkar, doctorante au laboratoire de Vorobeychik. L’équipe a présenté ses travaux le 13 décembre lors de la conférence Neural Information Processing Systems à la Nouvelle-Orléans.

« VAS améliore plus ou moins la recherche active traditionnelle en fonction de la tâche de recherche », a déclaré Jacobs. « Si une tâche est relativement facile, les améliorations sont modestes. Mais si un objet est très rare, par exemple une espèce menacée que nous souhaitons localiser à des fins de conservation de la faune, alors les améliorations offertes par le VAS sont substantielles. Il ne s’agit pas de trouver des choses plus rapidement. Il s’agit de trouver autant de choses que possible avec des ressources limitées, en particulier des ressources humaines limitées.

Le framework VAS de l’équipe améliore les méthodes précédentes en décomposant la recherche en deux modules distincts. Le cadre utilise d’abord un module de prédiction pour produire des régions d’intérêt basées sur des données d’images géospatiales et un historique de recherche. Ensuite, un module de recherche prend la carte de prédiction résultante comme entrée et génère un plan de recherche. Chaque module peut être mis à jour à mesure que les explorateurs humains renvoient les résultats des recherches physiques en temps réel.

« Au lieu d’une politique de recherche de bout en bout, la décomposition en deux modules nous permet d’être beaucoup plus adaptables », a déclaré Sarkar. « Pendant la recherche proprement dite, nous pouvons mettre à jour notre module de prédiction avec les résultats de la recherche. Le module de recherche peut ensuite apprendre la dynamique du module de prédiction (comment il évolue au fil des étapes de recherche) et s’adapter. Dans cette stratégie de méta-apprentissage, le module de recherche consiste essentiellement à apprendre à rechercher. C’est également interprétable par l’homme, donc si le modèle ne fonctionne pas correctement, l’utilisateur peut le vérifier et le déboguer si nécessaire.

La principale force du cadre vient de son incorporation continue de deux niveaux de déploiement : le modèle informatique prédit où chercher, puis les humains se rendent dans le monde pour mener la recherche. La composante humaine est beaucoup plus coûteuse en termes de temps et d’autres ressources nécessaires pour explorer de vastes zones géospatiales. Il est donc logique d’adapter et d’optimiser le plan de recherche généré par ordinateur pour une recherche d’une efficacité maximale.

L’adaptabilité du modèle informatique est particulièrement importante lorsque l’objet recherché diffère considérablement des objets sur lesquels le modèle est formé. Les résultats expérimentaux ont montré une nette amélioration du cadre VAS proposé par Sarkar, Vorobeychik et Jacobs par rapport aux méthodes existantes dans diverses tâches de recherche active visuelle.

Les résultats sont publiés sur le arXiv serveur de préimpression.