Boost descriptif pour l’accessibilité visuelle
On estime que 280 millions de personnes dans le monde souffrent de déficiences visuelles débilitantes. Un nouvel outil pour leur permettre d'acquérir une compréhension plus riche de leur environnement est présenté dans le Revue internationale de modélisation et de simulation de systèmes d'ingénierie.
S. Pavithra, T. Helan Vidhya, D. Gururaj et P. Shanmuga Priya du Département de génie électronique et des communications du Rajalakshmi Engineering College et V. Prabhakaran du Département de génie biomédical de l'Institut de technologie Aarupadai Veedu à Chennai, Tamil Nadu, en Inde, ont démontré que l'intégration du traitement numérique de l'image et de la technologie vocale permettait, dans une certaine mesure, de combler le fossé entre la déficience visuelle et l'environnement d'une personne.
Le cœur de leur approche réside dans un système qui capture des images en temps réel et les traduit en audiodescriptions. Il utilise des algorithmes sophistiqués de reconnaissance d’images alimentés par l’apprentissage automatique et permet à l’ordinateur d’identifier les objets d’une scène avec une précision remarquable, rapporte l’équipe. Les chercheurs expliquent que le processus est facilité par des plateformes telles que TensorFlow et garantit que les utilisateurs reçoivent des descriptions détaillées adaptées à leur environnement immédiat.
La nouvelle technologie va bien au-delà de la simple reconnaissance d’objets. Il fonctionne comme un assistant personnel, fournissant aux utilisateurs des mises à jour en temps opportun sur les informations pertinentes et les dangers potentiels qu'ils peuvent rencontrer en naviguant dans leur environnement, que ce soit chez eux ou ailleurs. L'équipe souligne également qu'un mécanisme d'appel de détresse peut être utilisé dans le système pour ajouter une couche de sécurité supplémentaire, étant activé en cas d'urgence afin d'appeler à l'aide.
Les chercheurs ont testé leur système de manière rigoureuse, démontrant des taux de précision élevés dans l'identification des objets primaires (précision de 90 %) et secondaires (80 %). De plus, ils ont démontré qu’il pouvait s’adapter à différents environnements, qu’ils soient intérieurs ou extérieurs. Elle se distingue ainsi des solutions actuelles qui peuvent être limitées en portée ou en réactivité.
L'équipe espère que leur nouvelle technologie améliorera la qualité de vie des personnes malvoyantes en comblant les lacunes des technologies d'assistance actuelles. En permettant une interaction en temps réel avec le monde, cette innovation favorisera l’indépendance et l’inclusion, suggèrent les chercheurs.