Philadelphie utilise des caméras basées sur l'IA pour garder les voies de bus claires. La transparence peut aider à renforcer la confiance dans le système
La Southeastern Pennsylvania Transportation Authority a piloté un nouvel outil d'application de la loi à Philadelphie en 2023: des caméras alimentées par AI ont monté sur sept de ses bus. Les résultats ont été immédiats et dramatiques: en seulement 70 jours, les caméras ont signalé plus de 36 000 voitures bloquant les voies de bus.
Les résultats du pilote ont donné à l'autorité de transport, également appelée SEPTA, de précieuses données dans l'obstruction de l'itinéraire des bus et des informations sur le rôle de la technologie pour lutter contre ces problèmes.
En mai 2025, SEPTA et la Philadelphia Parking Authority ont officiellement lancé le programme dans toute la ville. Plus de 150 bus et 38 chariots à travers la ville sont équipés de systèmes d'intelligence artificielle similaires qui scannent des plaques d'immatriculation pour des violations possibles. Le système utilise des caméras alimentées par l'IA qui utilisent la technologie de vision informatique pour repérer les véhicules bloquant les voies de bus et les plaques d'immatriculation des bus pour identifier les véhicules enfreignant les règles. Si le système signale une infraction possible, un examinateur humain le confirme avant l'émission d'une amende: 76 $ US à Center City, 51 $ ailleurs.
Ce déploiement survient alors que SEPTA fait face à un déficit budgétaire de 213 millions de dollars, avec des coupes de services imminentes et des randonnées tarifaires.
Je suis professeur de systèmes d'information et directeur universitaire du Lebow College of Business Center for Applied IA and Business Analytics de l'Université Drexel. Les recherches du centre se concentrent sur la façon dont les organisations utilisent l'IA et ce que cela signifie pour la confiance, l'équité et la responsabilité.
Dans une récente enquête, le Centre a mené avec 454 chefs d'entreprise des industries, notamment la technologie, la finance, les soins de santé, la fabrication et le gouvernement, nous avons constaté que l'utilisation de l'IA est souvent déployée plus rapidement que la gouvernance nécessaire pour nous assurer qu'elle fonctionne de manière équitable et de manière transparente.
Cet écart entre l'efficacité et la surveillance est particulièrement courant dans les organisations du secteur public, selon notre enquête.
C'est pourquoi je crois qu'il est important pour SEPTA de gérer attentivement son système d'application de l'IA pour gagner la confiance du public, tout en minimisant les risques.
Équité et transparence
Lorsque les voitures bloquent une voie de bus, elles obstruent la circulation. Les retards qui en résultent peuvent gâcher la journée d'une personne, provoquant des connexions manquées ou rendre les cyclistes en retard au travail. Cela peut laisser les coureurs avec le sentiment qu'ils ne peuvent pas compter sur le système de transport en commun.
Donc, si l'application de l'IA aide à garder ces voies claires, c'est une victoire. Les bus se déplacent plus rapidement et les déplacements sont plus rapides.
Mais voici le problème: les bonnes intentions ne fonctionnent pas si le système est injuste ou indigne de confiance. Notre enquête a également révélé que plus de 70% des organisations interrogées ne font pas pleinement confiance à leurs propres données. Sans données dignes de confiance, la billetterie alimentée par l'IA peut transformer l'efficacité en erreurs coûteuses, telles que des citations émises à tort qui doivent être remboursées, perdue des erreurs de correction du personnel et même des défis juridiques. La confiance du public est importante ici parce que les gens sont les plus susceptibles de suivre les règles et d'accepter les sanctions lorsqu'ils considèrent le processus comme précis et transparent.
De plus, cette constatation de notre enquête a vraiment attiré mon attention: seulement 28% des organisations déclarent avoir un modèle de gouvernance d'IA bien établi en place. Les modèles de gouvernance sont les garde-corps qui maintiennent les systèmes d'IA digne de confiance et alignés sur les valeurs humaines.
C'est suffisamment troublant lorsque les entreprises privées utilisent l'IA. Mais lorsqu'une agence publique comme SEPTA regarde une plaque d'immatriculation du conducteur et envoie un billet au conducteur, les enjeux sont plus élevés. L'application du public porte l'autorité légale et exige un niveau supérieur d'équité et de transparence.
L'effet d'étiquette AI
On peut demander: « Ce système de billetterie n'est-il pas comme la lumière rouge ou les caméras de vitesse? »
Techniquement, oui. Le système détecte les règles et un humain passe en revue les preuves avant une citation.
Mais simplement étiqueter la technologie en tant qu'IA peut transformer la façon dont elle est perçue. Ceci est connu comme l'effet de cadrage.
Le simple fait d'appeler quelque chose axé sur l'IA peut faire en sorte que les gens lui fassent moins confiance. La recherche a montré, si un système classe les papiers ou l'embauche de travailleurs, que le même processus entraîne plus de scepticisme lorsque l'IA est mentionnée que lorsqu'elle ne l'est pas. Les gens entendent « IA » et supposent que la machine fait des jugement, alors ils commencent à chercher des défauts. Même s'ils pensent que l'IA est exacte, l'écart de confiance ne se termine jamais.
Cette perception signifie que les agences publiques doivent aligner l'application basée sur l'IA sur la transparence, les garanties visibles et les moyens faciles de contester les erreurs. Ces mesures augmentent la confiance dans l'application basée sur l'IA.
Nous avons vu ce qui peut aller mal et la rapidité avec laquelle la confiance peut s'éroder, lorsqu'un système d'application basé sur l'IA est fonctionné par dysfonctionnement. Fin 2024, des caméras de l'IA sur les bus de la Metropolitan Transportation Authority à New York ont émis à tort des milliers de tickets de stationnement, dont près de 900 cas où les conducteurs avaient en fait suivi les règles et garé légalement.
Même si ces erreurs sont rares, elles peuvent endommager la confiance du public dans le système.
Établir la confiance dans le système
L'Organisation de coopération et de développement économiques, l'international établissant des normes politiques de l'IA dans des dizaines de pays, a constaté que les gens sont les plus susceptibles d'accepter les décisions axées sur l'IA lorsqu'ils comprennent comment ces décisions sont prises et ont un moyen clair et accessible de remettre en question les erreurs.
En bref, les outils d'application de l'IA devraient fonctionner pour les gens, pas seulement sur eux. Pour les septa, cela pourrait signifier ce qui suit:
- Publier des règles de voie de bus claires et toutes les exceptions, afin que les gens sachent ce qui est autorisé.
- Expliquant des garanties, comme le fait que chaque violation de la caméra de bus est examinée par le personnel de la Philadelphia Parking Authority avant l'émission d'un billet.
- Offrant un processus d'appel simple avec l'examen de la direction et un droit d'appel.
- Partage de données d'application, telles que le nombre de violations et d'appels traités.
Ces étapes signalent que le système est juste et responsable, ce qui contribue à le passer à un sentiment de billetterie dans un service public en qui les gens peuvent avoir confiance.
