Des chercheurs étudient le côté éthique des impacts de l'IA sur un travail significatif

Des chercheurs étudient le côté éthique des impacts de l’IA sur un travail significatif

Le professeur Paul Formosa, sur la photo, affirme que, quelles que soient les avancées futures de l’IA, les humains seront toujours nécessaires sur les lieux de travail pour exercer leur jugement, être créatifs, bien communiquer et interagir avec les parties prenantes. Crédit : Université Macquarie

L’intelligence artificielle menace de changer radicalement le travail que nous faisons et le fonctionnement de nos lieux de travail. Les chercheurs de l’Université Macquarie examinent certaines questions éthiques vitales soulevées par cette nouvelle technologie.

Alors que l’utilisation de l’intelligence artificielle sur le lieu de travail s’accélère, l’avenir du « travail significatif » passe au microscope.

Un travail significatif est un emploi qui a une valeur, une signification ou un objectif supérieur. Idéalement, elle doit être engageante, variée, nécessiter l’utilisation de compétences complexes, profiter aux autres et être librement choisie.

L’IA est la capacité des ordinateurs et d’autres entités artificielles à effectuer des tâches qui, si elles étaient effectuées par un humain, nécessiteraient de l’intelligence. Par exemple, la capacité de raisonner, de planifier, de résoudre des problèmes et d’apprendre de l’expérience.

L’impact de l’IA sur le travail significatif est à la fois significatif et mitigé, déclarent la professeure agrégée Sarah Bankins et le professeur Paul Formosa dans leur article intitulé « The Ethical Implications of Artificial Intelligence (AI) For Meaningful Work », publié dans le Journal d’éthique des affaires.

Selon les auteurs, l’IA a le potentiel de rendre le travail plus significatif pour les travailleurs en entreprenant des tâches moins significatives pour nous et en amplifiant nos capacités. Mais cela peut également rendre le travail moins significatif pour les autres en créant de nouvelles tâches ennuyeuses, en restreignant l’autonomie des travailleurs et en détournant injustement les avantages de l’IA des moins qualifiés.

Fournir un travail significatif est éthiquement important, déclarent Bankins et Formosa, car cela « respecte l’autonomie des travailleurs et leur capacité à exercer des compétences complexes pour aider les autres, contribue à leur bien-être et leur permet de s’épanouir en tant qu’êtres humains complexes ».

Embarqué avec le frenemy

Le rapport sur l’indice AI 2023 de l’Université de Stanford montre que les secteurs de la technologie et des télécommunications, les services financiers et les services commerciaux, juridiques et professionnels intègrent l’IA dans au moins une fonction commerciale.

L’IA fait également sentir sa présence dans les professions de première ligne telles que les soins infirmiers et l’enseignement.

« Nous le voyons aider à gérer le flux de patients et l’administration dans les hôpitaux et à alimenter les chatbots pour un service client à la demande », déclare Bankins. « L’IA promet également de nombreux avantages pour l’éducation, tels que l’amélioration de l’apprentissage personnalisé et de la rétroaction. »

Sonder les liens entre l’IA et le travail significatif, dit-elle, « peut aider les organisations à réfléchir de manière plus stratégique à leur utilisation de l’IA et à ce que cela signifie pour l’expérience de travail significative de leurs employés ».

Jusqu’à présent, la question de l’éthique a été absente d’une discussion sur la relation. Alors, où se situe l’éthique dans le monde de l’IA du travail significatif ?

« Voir votre vie comme significative, c’est la voir comme riche, précieuse et digne d’être vécue, et cela a clairement une signification éthique », déclare Formosa, philosophe.

« Alors que nous tirons un sens de beaucoup de choses, telles que nos relations avec les autres et nos passe-temps et intérêts, une source importante de sens pour beaucoup de gens est le travail qu’ils font. Le travail nous permet d’exercer et de perfectionner nos compétences pour au profit des autres, tout en développant des relations riches avec les collègues.

« L’IA menace de changer radicalement nos lieux de travail et le travail que nous faisons, et elle soulève donc d’importantes questions éthiques concernant ce que nous devrions faire à ce sujet », dit-il.

Il ne suffit pas de regarder à quoi sert l’IA. Au lieu de cela, le professeur agrégé Baskins et le professeur Formosa disent que nous devons examiner ce qui reste – ou quel nouveau travail il reste – pour les travailleurs humains afin de comprendre les implications pour un travail significatif.

Par exemple, si un hôpital utilise l’apprentissage automatique pour aider à gérer le flux des patients et minimiser les temps d’attente des patients, cela devrait libérer le personnel pour faire d’autres choses.

« Mais quoi d’autre? C’est là que la réflexion sur la conception des tâches est importante », déclare Baskins. « Ces personnels peuvent-ils désormais faire un travail plus intéressant, utiliser mieux leurs compétences ou leur donner plus de temps d’interaction avec les patients ? et un travail subalterne qui change leur travail pour le pire ? »

Accepter l’IA sur le lieu de travail prend du temps, dit-elle. Il y a beaucoup de peur autour de ce que les nouvelles technologies signifient pour les humains.

« Pour moi, aider le personnel à faire la transition vers des lieux de travail plus adaptés à l’IA signifie éduquer et informer les travailleurs, bien concevoir des emplois améliorés par l’IA et être clair sur ce que travailler avec l’IA signifiera pour les emplois des gens – et avoir une culture organisationnelle favorable. »

Miser sur les préjugés humains

Alors que de nombreuses entreprises mentionnent ou prétendent approuver les directives éthiques de l’IA, dit Formosa, c’est une chose de prétendre vouloir être éthique et une autre de suivre quand il y a d’importants intérêts financiers en jeu.

Par exemple, plusieurs entreprises d’IA ont mis en avant les dangers apocalyptiques potentiels de l’IA voyou, mais cela peut écarter les dangers plus « mondains » de la désinformation et des préjugés, de l’appropriation des données de formation ou des violations de la vie privée qui peuvent avoir un impact sur leurs résultats.

Pour parvenir à un déploiement éthique optimal de l’IA, il faut peser les coûts et les avantages. Cependant, il y a certaines choses pour lesquelles les lieux de travail auront toujours besoin des humains.

« Même si l’IA peut faire des choses de plus en plus impressionnantes, au moins dans un avenir prévisible, je pense que les humains conserveront des compétences uniques et nécessaires dans le monde du travail », déclare Baskins.

« Par exemple, exercer son jugement, être créatif, bien communiquer et interagir avec les parties prenantes, critiquer et contextualiser les résultats des nouvelles technologies, et d’autres tâches et rôles que nous n’avons pas encore imaginés. »

Formosa cite des preuves que les gens ont un « parti pris humain », préférant interagir avec d’autres humains plutôt qu’avec l’IA.

« L’IA peut avoir tendance à être » fragile « et à mal fonctionner dans de nouvelles situations en dehors de ses données d’entraînement, ce qui signifie que les humains sont nécessaires pour » vérifier  » ses sorties dans des contextes critiques « , dit-il. « Mais les chercheurs travaillent déjà sur des moyens de rendre nos interactions avec l’IA plus « humaines » et d’améliorer la robustesse de l’IA. »