Le modèle basé sur l'IA peut aider les ingénieurs de la circulation à prédire les futurs sites d'éventuels accidents
Dans une étape importante vers l'amélioration de la sécurité routière, les chercheurs de l'Université Johns Hopkins ont développé un outil basé sur l'IA qui peut identifier les facteurs de risque contribuant aux accidents de voiture à travers les États-Unis et à prédire avec précision les incidents futurs.
L'outil, appelé Safetraffic Copilot, vise à fournir aux experts des analyses des accidents et des prévisions des accidents pour réduire le nombre croissant de décès et de blessures qui se produisent sur les routes américaines chaque année.
Les travaux, dirigés par des chercheurs de l'Université Johns Hopkins, sont publiés dans Communications de la nature.
« Les accidents de voiture aux États-Unis continuent d'augmenter, malgré des décennies de contre-mesures, et ce sont des événements complexes affectés par de nombreuses variables, comme la météo, les modèles de circulation et le comportement des conducteurs », a déclaré l'auteur principal Hao (Frank) Yang, professeur d'ingénierie civil et systèmes. « Avec Safetraffic Copilot, notre objectif est de simplifier cette complexité et de fournir des concepteurs d'infrastructures et des décideurs politiques des informations basées sur les données pour atténuer les accidents. »
L'équipe utilise un type d'IA appelé modèle de grande langue (LLMS) qui sont conçus pour traiter, comprendre et apprendre des grandes quantités de données. Le copilote Safetraffic a été formé à l'aide de texte (c'est-à-dire des descriptions des conditions routiers), de valeurs numériques (c'est-à-dire des taux d'alcoolémie), d'images satellites et de photographie sur place. Le modèle de l'équipe a également la capacité d'évaluer les facteurs de risque individuels et combinés, offrant une compréhension plus détaillée de la façon dont ces éléments interagissent pour influencer les accidents.
Par conception, SafeTraffic Copilot intègre une boucle d'apprentissage continue afin que les performances de prédiction s'améliorent à mesure que des données plus liées au crash soient entrées dans le modèle, ce qui la rend encore plus précise au fil du temps. Plus important encore, en utilisant les LLM, les chercheurs peuvent quantifier la fiabilité de la prédiction – en d'autres termes, ils peuvent dire qu'une prédiction donnée sera précise à 70% dans un scénario du monde réel.
« En recadrant la prédiction des collisions comme tâche de raisonnement et en utilisant les LLM pour intégrer des données écrites et visuelles, les parties prenantes peuvent passer des statistiques grossières et agrégées, à une compréhension affinée de ce qui provoque des accidents spécifiques », a déclaré Yang.
Le modèle donne aux décideurs et aux concepteurs de transport un outil digne de confiance et interprétable pour identifier les combinaisons de facteurs qui augmentent le risque de crash. Les données peuvent ensuite être utilisées pour exécuter des interventions fondées sur des preuves et une planification des infrastructures plus efficace pour sauver des vies et réduire les blessures.
Les chercheurs voient le modèle comme un copilote de la prise de décision humaine.
« Plutôt que de remplacer les humains, les LLM devraient servir de copilotes – le traitement des informations, l'identification des modèles et la quantification des risques – tandis que les humains restent les décideurs finaux », a déclaré Yang.
Safetraffic Copilot a le potentiel d'être un plan pour intégrer de manière responsable des modèles basés sur l'IA dans des champs à enjeux élevés, comme la santé publique et la sécurité humaine. Étant donné que les LLM fonctionnent comme de grands modèles de boîte noire, les utilisateurs ne savent pas comment les prédictions sont générées, dissuadant leur utilisation dans des scénarios de prise de décision à haut risque.
L'équipe prévoit de poursuivre ses recherches pour mieux comprendre comment les modèles d'IA peuvent être utilisés de manière responsable dans ces contextes.
« L'objectif central de nos recherches en cours est de trouver le meilleur moyen de combiner les forces des humains et des LLM afin que les décisions dans les domaines à enjeux élevés soient non seulement basées sur les données, mais également transparentes, responsables et alignées sur les valeurs sociétales », a-t-il ajouté.
Les auteurs de l'étude comprennent Hongru Du, professeur adjoint à l'Université de Virginie, et les candidats doctoraux de Johns Hopkins Yang Zhao, Pu Wang et Yibo Zhao.
