Faire progresser la sécurité des machines pilotées par l’IA nécessite une collaboration plus étroite avec les humains
Un projet de recherche en cours à l'Université de Tampere vise à créer des systèmes de sécurité adaptables pour les engins mobiles tout-terrain hautement automatisés afin de répondre aux besoins de l'industrie. Des recherches ont révélé des lacunes critiques dans le respect de la législation relative à la sécurité publique lors de l'utilisation de machines de travail mobiles contrôlées par l'intelligence artificielle.
À mesure que l’adoption de machines tout-terrain hautement automatisées augmente, le besoin de mesures de sécurité robustes augmente également. Les processus de sécurité conventionnels ne tiennent souvent pas compte des risques pour la santé et la sécurité posés par les systèmes contrôlés par l’intelligence artificielle (IA).
Marea de Koning, doctorante spécialisée en automatisation à l'Université de Tampere, mène des recherches dans le but d'assurer la sécurité publique sans compromettre les progrès technologiques en développant un cadre de sécurité spécifiquement adapté aux machines mobiles autonomes fonctionnant en collaboration avec des humains. Ce cadre vise à permettre aux fabricants d'équipement d'origine (OEM), aux ingénieurs de sécurité et de systèmes et aux parties prenantes de l'industrie de créer des systèmes de sécurité conformes à l'évolution de la législation.
Il est pratiquement impossible d’anticiper toutes les manières possibles d’émergence d’un danger et de garantir que l’IA puisse gérer en toute sécurité les scénarios dangereux. Nous devons ajuster notre approche en matière de sécurité pour nous concentrer davantage sur la recherche de moyens de gérer avec succès les événements imprévus.
Nous avons besoin de systèmes de gestion des risques robustes, intégrant souvent une option de sécurité humaine. Ici, un superviseur humain est censé intervenir si nécessaire. Mais dans les machines autonomes, compter sur l’intervention humaine n’est pas pratique.
Selon de Koning, il peut y avoir des dégradations mesurables des performances humaines lorsque l'automatisation est utilisée, en raison, par exemple, de l'ennui, de la confusion, des capacités cognitives, de la perte de conscience de la situation et des biais d'automatisation. Ces facteurs ont un impact significatif sur la sécurité, et une machine doit devenir capable de gérer son propre comportement en toute sécurité.
« Mon approche prend en compte les dangers grâce à une prise de décision, une évaluation des risques et une adaptabilité à des scénarios imprévus basées sur l'IA. Je pense qu'il est important de s'engager activement avec les partenaires industriels pour garantir l'applicabilité dans le monde réel. En collaborant avec les fabricants, il est possible de combler l'écart entre les cadres théoriques et la mise en œuvre pratique », dit-elle.
Le cadre vise à aider les équipementiers à concevoir et à développer des systèmes de sécurité conformes et à garantir que leurs produits respectent les réglementations en évolution.
Marea de Koning a commencé ses recherches en novembre 2020 et les terminera en novembre 2024.
Le prochain projet de recherche de De Koning, qui débutera en avril, se concentrera sur l'intégration d'un sous-ensemble de son cadre de sécurité et sur le test rigoureux de son efficacité. Le règlement 2023/1230 remplace la directive 2006/42/ce à compter de janvier 2027, mettant considérablement à l'épreuve les équipementiers.
« Je fais tout ce que je peux pour que la sécurité reste à la pointe des avancées technologiques », conclut-elle.
La recherche fournit des informations précieuses aux décideurs politiques, aux ingénieurs et aux professionnels de la sécurité. L'article présentant les résultats intitulé « Une approche globale de la sécurité pour les machines tout-terrain hautement automatisées en vertu du règlement 2023/1230 » a été publié dans le prestigieux Journal of Safety Science.