L'IA pourrait transformer la façon dont nous comprenons les émotions

Les entreprises technologiques affirment que l’IA peut reconnaître les émotions humaines. Mais la science ne fait pas le poids

L'intelligence artificielle (IA) peut-elle dire si vous êtes heureux, triste, en colère ou frustré ?

Selon les entreprises technologiques qui proposent des logiciels de reconnaissance des émotions basés sur l’IA, la réponse à cette question est oui.

Mais cette affirmation ne résiste pas aux preuves scientifiques croissantes.

De plus, la technologie de reconnaissance des émotions présente toute une série de risques juridiques et sociétaux, en particulier lorsqu'elle est déployée sur le lieu de travail.

Pour ces raisons, la loi de l'Union européenne sur l'IA, entrée en vigueur en août, interdit les systèmes d'IA utilisés pour déduire les émotions d'une personne sur le lieu de travail, sauf pour des raisons « médicales » ou de « sécurité ».

En Australie cependant, il n’existe pas encore de réglementation spécifique de ces systèmes. Comme je l’ai soutenu dans mon mémoire au gouvernement australien lors de sa dernière série de consultations sur les systèmes d’IA à haut risque, cela doit changer de toute urgence.

Une nouvelle vague croissante

Le marché mondial des systèmes de reconnaissance des émotions basés sur l’IA est en croissance. Il était évalué à 34 milliards de dollars en 2022 et devrait atteindre 62 milliards de dollars d’ici 2027.

Ces technologies fonctionnent en faisant des prédictions sur l'état émotionnel d'une personne à partir de données biométriques, telles que sa fréquence cardiaque, l'humidité de sa peau, le ton de sa voix, ses gestes ou ses expressions faciales.

L'année prochaine, la startup technologique australienne inTruth Technologies prévoit de lancer un appareil porté au poignet qui, selon elle, peut suivre les émotions de son porteur en temps réel via sa fréquence cardiaque et d'autres mesures physiologiques.

La fondatrice d'inTruth Technologies, Nicole Gibson, a déclaré que cette technologie peut être utilisée par les employeurs pour surveiller « les performances et l'énergie » d'une équipe ou leur santé mentale afin de prédire des problèmes tels que le trouble de stress post-traumatique.

Elle a également déclaré qu'inTruth peut être un « coach d'émotions IA qui sait tout de vous, y compris ce que vous ressentez et pourquoi vous le ressentez ».

Technologies de reconnaissance des émotions sur les lieux de travail australiens

Il existe peu de données sur le déploiement des technologies de reconnaissance des émotions sur les lieux de travail australiens.

Cependant, nous savons que certaines entreprises australiennes ont utilisé un système d'entretien vidéo proposé par une société américaine appelée HireVue, qui incorporait une analyse des émotions basée sur le visage.

Ce système utilisait des mouvements et des expressions faciales pour évaluer l'aptitude des candidats à un emploi. Par exemple, les candidats ont été évalués selon s'ils exprimaient leur enthousiasme ou comment ils réagissaient à un client en colère.

HireVue a supprimé l'analyse des émotions de ses systèmes en 2021 à la suite d'une plainte officielle aux États-Unis.

La reconnaissance des émotions pourrait à nouveau augmenter à mesure que les employeurs australiens adoptent les technologies de surveillance du lieu de travail basées sur l'intelligence artificielle.

Manque de validité scientifique

Des entreprises telles que inTruth affirment que les systèmes de reconnaissance des émotions sont objectifs et ancrés dans des méthodes scientifiques.

Cependant, les chercheurs ont exprimé leur inquiétude quant au fait que ces systèmes impliquent un retour aux domaines discrédités de la phrénologie et de la physionomie. C'est-à-dire l'utilisation des caractéristiques physiques ou comportementales d'une personne pour déterminer ses capacités et son caractère.

Les technologies de reconnaissance des émotions dépendent fortement de théories selon lesquelles les émotions intérieures sont mesurables et universellement exprimées.

Cependant, des données récentes montrent que la manière dont les gens communiquent leurs émotions varie considérablement selon les cultures, les contextes et les individus.

En 2019, par exemple, un groupe d'experts a conclu qu'il n'existait « aucune mesure objective, que ce soit seule ou sous forme de modèle, qui identifie de manière fiable, unique et reproductible » les catégories émotionnelles. Par exemple, l'humidité de la peau d'une personne peut augmenter, diminuer ou rester la même lorsqu'elle est en colère.

Dans une déclaration à The Conversation, la fondatrice d'inTruth Technologies, Nicole Gibson, a déclaré qu'« il est vrai que les technologies de reconnaissance des émotions ont été confrontées à des défis importants dans le passé », mais que « le paysage a considérablement changé ces dernières années ».

Violation des droits fondamentaux

Les technologies de reconnaissance des émotions mettent également en danger les droits fondamentaux sans justification appropriée.

Il a été constaté qu’ils font preuve de discrimination fondée sur la race, le sexe et le handicap.

Dans un cas, un système de reconnaissance des émotions a interprété les visages noirs comme étant plus en colère que les visages blancs, même lorsque les deux souriaient au même degré. Ces technologies peuvent également être moins précises pour les personnes appartenant à des groupes démographiques non représentés dans les données de formation.

Gibson a reconnu ses inquiétudes concernant les biais dans les technologies de reconnaissance des émotions. Mais elle a ajouté que « les préjugés ne sont pas inhérents à la technologie elle-même mais plutôt aux ensembles de données utilisés pour entraîner ces systèmes ». Elle a déclaré qu'inTruth « s'engage à lutter contre ces préjugés » en utilisant « des ensembles de données diversifiés et inclusifs ».

En tant qu’outil de surveillance, les systèmes de reconnaissance des émotions sur le lieu de travail constituent de sérieuses menaces pour le droit à la vie privée. Ces droits peuvent être violés si des informations sensibles sont collectées à l'insu d'un employé.

Il y aura également un non-respect du droit à la vie privée si la collecte de ces données n'est pas « raisonnablement nécessaire » ou par des « moyens équitables ».

Opinions des travailleurs

Une enquête publiée plus tôt cette année a révélé que seulement 12,9 % des adultes australiens soutiennent les technologies de reconnaissance des émotions basées sur le visage sur le lieu de travail. Les chercheurs ont conclu que les personnes interrogées considéraient l’analyse faciale comme invasive. Les personnes interrogées considèrent également la technologie comme contraire à l’éthique et très sujette aux erreurs et aux biais.

Dans une étude américaine également publiée cette année, les travailleurs ont exprimé leur inquiétude quant aux risques que les systèmes de reconnaissance des émotions pourraient nuire à leur bien-être et avoir un impact sur leurs performances au travail.

Ils craignaient que des inexactitudes puissent créer de fausses impressions à leur sujet. À leur tour, ces fausses impressions pourraient empêcher des promotions et des augmentations de salaire, voire conduire à un licenciement.

Comme l’a déclaré un participant :

« Je ne vois tout simplement pas comment cela pourrait être autre chose que destructeur pour les minorités sur le lieu de travail. »