Tesla voulait que son pilote automatique conduise comme un humain. Alors je lui ai appris à ignorer certains panneaux de signalisation
Le segment automobile a deux objectifs majeurs devant lui. Deux beaux défis également. D’une part, faire des véhicules à combustion une chose du passé, ce qui semble essentiel pour atteindre les objectifs mondiaux de décarbonation. En revanche, les voitures peuvent rouler « seules ». Et l’une des entreprises qui consacre le plus d’efforts à la fois à la vulgarisation de la voiture électrique et à son automatisation sur la route est Tesla.
Ses usines -Gigafactories- sont imposantes. Nous le savons bien, puisque nous nous sommes récemment rendus à l’usine Tesla de Berlin, à laquelle peu de gens ont eu accès. Mais au-delà des problèmes mécaniques inhérents à une voiture, chez Tesla nous disposons du logiciel qui se charge non seulement de contrôler tous les paramètres du véhicule, mais aussi de lire tout ce que les caméras collectent et de l'interpréter pour l'automatisation et, finalement, le pilote automatique. .
Ce système n'est pas infaillible, ce qui a provoqué quelques accidents ces dernières années, mais au-delà des pannes logicielles et des bugs occasionnels, si une Tesla ne fait pas attention à certains signaux, c'est… parce qu'elle est programmée pour le faire.
Tesla Autopilot ignore certains signaux
Au second semestre 2022, Tesla a annoncé qu’elle allait se passer de radars et de capteurs dans ses voitures. C'est une mesure qui nous a tous pris à pied car ces radars, avec le travail des caméras, sont ceux qui peuvent « lire » le plus efficacement la situation de la route en temps réel.
Les conséquences n’ont pas tardé à apparaître, avec des accidents qui auraient pu être évités dans le système de conduite semi-autonome si les voitures continuaient à disposer de certains systèmes. Il y a quelques mois, la National Highway Traffic Safety Administration disposait de 1 200 rapports d'accidents signalés par Tesla, dont 222 dans lesquels le système de conduite autonome était impliqué.
Des rapports tels que ceux publiés dans le Wall Street Journal indiquaient que Teslas est entré en collision avec des « objets clairement visibles ». Dans le même ordre d'idées, nous disposons de l'équipe logicielle dédiée à la programmation des systèmes de conduite autonome et d'assistance routière des voitures d'Elon Musk.
Le processus permettant à une voiture de conduire seule ou d’assister un grand pourcentage de conduite est compliqué. Les caméras collectent des images qui sont envoyées à l'ordinateur central, qui les analyse et envoie un ordre aux systèmes de sécurité. Tout cela doit être fait en un minimum de temps car le temps de réaction sur la route est vital.
Quand faut-il commencer à freiner avant un STOP sur sol sec ? Et s'il pleut ? Et s'il neige ? Ce sont quelques-unes des questions que le logiciel pose et exécute, mais tout cela est programmé à l'avance par une équipe dont la majeure partie est située dans les installations de Tesla à Buffalo, New York.
Si nous observions comment travaillent les plus de 12 000 employés et les nombreuses machines de la Gigafactory de Berlin, l'équipe de Business Insider a pu constater Quel est le travail des responsables du logiciel ?. Mais pas dans le centre de données, bien sûr, mais à travers les déclarations de 17 travailleurs actuels et anciens de ce segment de Tesla.
Plus précisément, il s'agit des analystes de données de Tesla. Ils sont chargés d'examiner des milliers d'heures de matériel vidéo collecté par Tesla qui circulent dans le monde entier, ainsi que ceux collectés lors des tests de l'entreprise. Ce faisant, ils écrivent la casuistique des situations et « apprennent » progressivement à l’IA à se comporter comme un conducteur humain.
« Parfois, c'est monotone. On peut passer huit heures par jour pendant des mois à étiqueter les lignes de voies et les trottoirs dans des milliers de vidéos », explique l'un des anciens travailleurs d'une de ces équipes. Cela ne semble pas être le travail le plus difficile, mais est nécessaire au système. Et c’est un métier qui nécessite que les salariés connaissent les réglementations des différents pays.
La raison en est qu'ils peuvent travailler avec des données de n'importe quel pays dans un seul flux de travail (c'est-à-dire qu'il peut y avoir des vidéos des États-Unis et d'autres pays dans un seul projet). Et ce que plusieurs de ces travailleurs et anciens travailleurs ont commenté, c'est que « L’idée est d’entraîner le système à conduire comme le ferait un humain.pas comme un robot qui se contente de suivre les règles.
Qu’est-ce que cela implique ? Eh bien, comme l'ont fait remarquer sept de ces employés, il leur a été demandé d'ignorer les panneaux « interdiction d'allumer un feu rouge » ou « interdiction de faire demi-tour », ce qui signifie qu'ils ne formeraient pas le système à s'adapter à ces panneaux. Il y a quelques semaines, une vidéo a été révélée montrant une Tesla coupant dans un embouteillage en envahissant une voie interdite pour passer devant, comme le font parfois les vrais humains.
Selon ces travailleurs, « c'est une mentalité de donner la priorité au conducteur », mais le problème n'est pas seulement que, apparemment et selon ces témoignages aux médias nord-américains, le pilote automatique est délibérément entraîné à ignorer les panneaux, mais qu'est-ce qui vu dans ces centres d’analyse et d’étiquetage des données.
Controverses au travail et violation de la vie privée
Mais bien sûr, travailler avec les images capturées par les caméras des véhicules privés a un effet secondaire : la confidentialité. En avril de l’année dernière, la bombe est tombée : Les employés de Tesla avaient partagé des images sensibles enregistrées par les voitures des clients. Les images privées capturées par les caméras (par exemple, l'intérieur des garages) avaient été partagées dans les forums de discussion des travailleurs.
On a dit que les détails des individus étaient anonymes, mais il s'avère qu'à l'intérieur de l'un de ces garages se trouvait une voiture sous-marine Lotus Esprit qui était apparue dans « L'espion qui m'aimait », le film de James Bond de 1977. le propriétaire de ce sous-marin et donc du garage ? Elon Musk, propriétaire de Tesla.
Il y avait également du matériel sensible, par exemple un enfant qui avait été heurté par une Tesla qui roulait à grande vitesse dans une zone résidentielle. Cette vidéo dans laquelle on voyait le garçon aller dans une direction et le vélo dans une autre a été partagée via des discussions privées et s'est répandue « comme une traînée de poudre », selon un ancien employé.
C'est pourquoi Tesla a commencé à ajouter des filigranes aux images avant qu'elles ne soient traitées par les centres de données, afin de détecter la fuite. Et, en parlant de surveillance des employés, dans l'article BI, vous pouvez également voir que l'entreprise surveille de près ce que font ces travailleurs.
Grâce à une mesure appelée « Flide Time », l'entreprise peut suivre activement les buteurs. Par exemple, le temps que les travailleurs passent avec un logiciel d'étiquetage ouvert ou en appuyant sur les touches de l'ordinateur. L'objectif est que les travailleurs effectuent entre cinq et sept heures et demie de « Flide Time » par jour et, même s'il leur manque cinq minutes par rapport à leur horaire, ils peuvent faire l'objet de mesures disciplinaires.
Des visites aux toilettes ont également été enregistrées et c'est ce qui a poussé les travailleurs de ce centre new-yorkais à lancer une campagne syndicale. Ils en avaient assez d'être « traités comme des robots ». Cela a entraîné le licenciement d'environ 300 travailleurs à l'usine de Buffalo. Reuters, Bloomberg et Business Insider ont contacté Tesla et Musk pour obtenir leurs commentaires, mais leur demande n'a pas abouti. Ce qui a été dit de Tesla, c'est qu'ils ont été licenciés pour mauvaise performance
Et oui, toute l’histoire autour du traitement des données privées est intéressante, mais le fait que, apparemment, Tesla entraîne son système à désobéir à certains signaux est pour le moins curieux si le but est de garantir la sécurité.
Images | Tesla, Simseo
À Simseo | Qui est responsable d'un accident en cas d'utilisation du système Autopilot : Tesla a déjà une décision pionnière