L'expert discute du régulateur de vitesse à la prise de décision alimentée par l'IA
Que se passe-t-il lorsque nous sortons du siège du conducteur et que nos véhicules deviennent autonomes? Le mathématicien Viktor Larsson développe des méthodes pour permettre aux voitures et aux drones de voir leur environnement. Ceci est son aperçu du présent et de l'avenir autonome.
Caméras, satnav, laser, radar et capteurs. Pour gagner le préfixe «autonome» ou «autonome», les véhicules ont besoin d'une gamme de technologies capables de détecter et d'évaluer l'environnement de trafic complexe et imprévisible.
La capacité autonome est notée sur une échelle de cinq points définie par la Society of Automotive Engineers. De nombreuses voitures neuves sont au moins à l'extrémité inférieure de l'échelle, avec des fonctionnalités telles que le régulateur de vitesse, des capteurs à ultrasons pour l'évaluation à distance rapprochée et le satnav intégré. Plus l'échelle est élevée, plus les demandes sont plus importantes sur la prise de décision et le «jugement». Cela signifie que l'IA et l'apprentissage automatique sont une condition préalable pour atteindre les niveaux supérieurs, car ce n'est qu'alors que la voiture peut évaluer et agir en toute sécurité.
Pas de pause de repos
Parmi les véhicules actuellement utilisés, le Robot Taxis dans certaines grandes villes américaines et chinoises est le plus proche de la totalité d'autonomie, c'est-à-dire du niveau cinq. Sinon, la plupart sont toujours testés dans des environnements contrôlés. D'autres véhicules commerciaux, tels que des bus et des camions, pourraient être à la suite d'être publiés à grande échelle, selon Viktor Larsson, un chercheur en mathématiques qui développe des algorithmes de vision informatique.
« De tels véhicules fonctionnent régulièrement et coûtent cher, ce qui vaut la peine de les équiper avec plus de capteurs. Et ils peuvent courir 24 heures sur 24 – un conducteur automatisé n'a pas besoin de repos … ils n'ont pas nécessairement à travailler tout le temps non plus. Si un problème devait se poser, un opérateur peut sauter et contrôler le véhicule à distance », dit-il.
Caméras non seulement moins chères
Les constructeurs automobiles priorisent les différentes technologies. Par exemple, Tesla utilise uniquement des caméras tandis que son concurrent Waymo utilise également le radar et le lidar, c'est-à-dire la mesure à distance basée sur le laser. Cependant, tous utilisent une ou plusieurs caméras.
« Le Lidar est certes beaucoup mieux pour mesurer la distance que les caméras. Il est très important de savoir que la route est claire. Mais parce que les caméras sont tellement moins chères, les constructeurs automobiles essaient de résoudre le problème en les utilisant à la place. »
Les caméras ne sont cependant pas simplement moins chères. Lorsque la voiture doit intensifier son intelligence et commencer à tirer des conclusions, son logiciel doit être nourri d'images. L'enfant court sur le trottoir en direction de la rue? Que signifie le Sciggle sur le signe?
« Par conséquent, une caméra serait toujours nécessaire, même si le prix du lidar et du radar devait tomber. »
De plus, dans un contexte militaire, les caméras sont préférables car elles n'émettent aucune énergie et sont donc difficiles à détecter.
Acquis par Apple et Meta
Les mathématiciens de LTH travaillent avec la vision par ordinateur depuis des décennies, bien avant que l'apprentissage automatique et les voitures autonomes ne soient à l'ordre du jour, et sont derrière plusieurs sociétés dérivées telles que Spiideo, Cognimatics (acquises par Axis), Mapillary (acquise par Meta) et Polar Rose (acquise par Apple).
Grâce au changement technologique vers l'IA et l'apprentissage automatique, le domaine a explosé et il y a maintenant plusieurs centaines d'équipes de recherche dans le monde, à la fois dans le monde universitaire et, plus récemment, les affaires, travaillant dans le domaine.
Comment la caméra obtient la perception de la profondeur
L'apprentissage automatique peut désormais être utilisé pour résoudre des problèmes où une solution était autrefois inconcevable, telle que le calcul des distances à tous les objets de la vue de la caméra à partir d'une seule image.
Traditionnellement, cela a été résolu en utilisant deux caméras, qui est basée sur le même principe que nous ayons deux yeux. En examinant les différences dans les deux images, nous et les caméras avons une perception de profondeur. Les choses qui sont plus proches de nous se déplacent plus entre les images que les choses qui sont plus éloignées.
« Les humains peuvent toujours deviner la distance même avec un œil fermé, grâce à la connaissance acquise du monde qui nous entoure. »
Il est désormais possible de créer des réseaux de neurones profonds qui, comme le cerveau humain, peuvent estimer la profondeur 3D à partir d'une seule image. Outre le fait qu'un appareil photo est moins cher que deux, les systèmes stéréo – ce qui représente deux caméras – est souvent très sensible aux erreurs d'étalonnage, c'est-à-dire comment les caméras sont positionnées les unes par rapport aux autres.
La possibilité de créer vos propres cartes
Viktor Larsson travaille principalement sur le développement de nouvelles méthodes pour créer des reconstructions 3D de réalité, permettant un positionnement plus précis.
Le positionnement a traditionnellement été résolu à l'aide du GPS. Cette technologie est également nécessaire dans les voitures autonomes, mais comme la résolution peut parfois échouer à cinq à dix mètres, un positionnement plus précis est nécessaire si le véhicule doit fonctionner entièrement de manière autonome.
« Le GPS ne fonctionnera pas non plus si vous conduisez à travers un tunnel ou dans des rues étroites bordées de grands bâtiments que les signaux satellites rebondissent. Il est donc important de pouvoir positionner le véhicule à l'aide d'autres capteurs. »
Idéalement, les cartes doivent être créées à l'aide des données de capteur collectées par les véhicules eux-mêmes. S'appuyer plutôt sur des informations collectées manuellement crée un risque que les cartes deviennent rapidement obsolètes et donc moins utiles.
« C'est pourquoi il est important de pouvoir mettre à jour les cartes avec des données collectées par les utilisateurs, de sorte que les changements dans l'environnement, tels que les panneaux de nouvelles magasins, les travaux routiers ou les variations saisonnières de la végétation, se reflètent directement dans la carte. »
Les bureaux monotones et les environnements urbains sont difficiles
L'une des difficultés est que nos villes et nos environnements intérieurs sont pleins de structures et d'éléments répétitifs, ce qui peut conduire à l'incertitude dans les algorithmes, explique Viktor Larsson.
« De nombreux bâtiments sont symétriques, il peut donc être difficile de dire de quel côté du bâtiment est montré dans une image de la façade. Des problèmes similaires existent à l'intérieur, où de nombreux bâtiments ont des dispositions similaires sur différents étages, et de nombreux bureaux semblent très similaires. Une partie de mes recherches implique de développer de nouvelles méthodes pour mieux résoudre ces problèmes. »
Grand salaire ou liberté
Comment est-ce de travailler dans le monde universitaire dans un domaine qui est devenu si commercialisé? Après tout, n'y a-t-il pas énormément d'argent à gagner par quiconque remporte la course technologique?
« Oui, nos étudiants et nos post-doctorants se voient offrir des salaires beaucoup plus élevés que par nous, ce qui les rend difficiles à s'accrocher.
« En Suède, le monde universitaire est dans une position relativement bonne grâce aux initiatives de Wallenberg et aux programmes de financement du gouvernement tels que Elliit. Je préfère personnellement travailler dans le monde universitaire, car il existe une liberté complètement différente d'explorer de nouveaux problèmes, que je trouve stimulant », explique Larsson.
Société des ingénieurs automobiles Niveaux d'automatisation de la conduite:
- Niveau 0 – Aucune automatisation de conduite. Le conducteur fait tout. La voiture peut avoir des systèmes d'avertissement (par exemple, avertissement de collision), mais il ne se dirige pas
- Niveau 1 – Assistance auditeur. Le système peut aider avec une tâche à la fois, par exemple le régulateur de vitesse adaptatif ou l'assistance de maintien de la voie. Le conducteur doit faire le reste.
- Niveau 2 – Automatisation de conduite particulière. La voiture peut gérer simultanément la direction et l'accélération / freinage dans certaines situations (par exemple, automatique Tesla, Volvo Pilot Assist). Cependant, le conducteur doit constamment surveiller et être prêt à prendre le relais.
- Niveau 3 – Automatisation de conduite conditionnelle. La voiture peut conduire de manière autonome dans certains environnements (par exemple l'autoroute) et y gérer toutes les fonctions de conduite. Les conducteurs humains doivent être capables de prendre le relais en cas de besoin, mais n'ont pas besoin de surveiller activement la situation tout le temps.
- Niveau 4 – Automatisation de conduite élevée. Le véhicule peut se conduire dans une zone ou un scénario défini (par exemple, quartier, GeoFence). Aucun conducteur humain n'est requis dans cette zone, mais en dehors de lui, le système ne fonctionne pas.
- Niveau 5 – Automatisation de la conduite. La voiture peut conduire n'importe où, dans n'importe quelle situation où un humain peut conduire. Aucun volant ou pédale nécessaire – le conducteur est complètement superflu.
