L'IA augmente-t-elle vraiment la productivité au travail? La recherche montre que les gains ne sont pas bon marché ou faciles

L'IA augmente-t-elle vraiment la productivité au travail? La recherche montre que les gains ne sont pas bon marché ou faciles

L'intelligence artificielle (IA) est présentée comme un moyen d'augmenter la croissance de la productivité.

La poussée de la productivité de l'IA a des bailleurs de fonds multinationaux puissants: les entreprises technologiques qui fabriquent des produits de l'IA et les sociétés de conseil qui vendent des services liés à l'IA. Il a également l'intérêt des gouvernements.

La semaine prochaine, le gouvernement fédéral tiendra une table ronde sur la réforme économique, où l'IA sera un élément clé de l'ordre du jour.

Cependant, les preuves de l'IA améliorent réellement la productivité sont loin d'être claires.

Pour en savoir plus sur le fonctionnement de l'IA et de l'achat dans de vraies organisations, nous interrogeons des bureaucrates supérieurs dans la fonction publique victorienne. Nos recherches sont en cours, mais les résultats des 12 premiers participants montrent des préoccupations clés partagées.

Nos personnes interrogées sont des bureaucrates qui achètent, utilisent et administrent les services d'IA. Ils nous ont dit d'augmenter la productivité grâce à l'IA nécessitent des bases organisationnelles difficiles, complexes et coûteuses. Les résultats sont difficiles à mesurer et l'utilisation d'IA peut créer de nouveaux risques et problèmes pour les travailleurs.

L'introduction de l'IA peut être lente et coûteuse

Les travailleurs de la fonction publique nous ont dit que l'introduction d'outils d'IA aux flux de travail existants peut être lent et coûteux. Trouver du temps et des ressources pour rechercher des produits et recycler le personnel présente un véritable défi.

Toutes les organisations n'approchent pas l'IA de la même manière. Nous avons trouvé que les entités bien financées peuvent se permettre de tester différentes utilisations d'IA pour les «preuves de concept». Les plus petits avec moins de ressources ont du mal aux coûts de mise en œuvre et de maintien des outils d'IA.

Selon les mots d'un participant: « C'est comme conduire une Ferrari sur un budget plus petit […] Parfois, ces solutions ne sont pas adaptées à ces activités plus petites, mais elles sont sanglantes à gérer, elles sont difficiles à soutenir. « 

«Les données sont le travail acharné»

Rendre un système d'IA utile peut également impliquer beaucoup de bases.

Des outils d'IA standard tels que Copilot et Chatgpt peuvent rendre des tâches relativement simples plus faciles et plus rapidement. L'extraction d'informations à partir de grands ensembles de documents ou d'images en est un exemple, et la transcription et le résumé des réunions en est une autre. (Bien que nos résultats suggèrent que le personnel puisse se sentir mal à l'aise avec la transcription de l'IA, en particulier dans les situations internes et confidentielles.)

Mais des cas d'utilisation plus complexes, tels que les chatbots du centre d'appels ou les outils de récupération d'informations internes, impliquent l'exécution d'un modèle d'IA sur des données internes décrivant les détails de l'entreprise et les politiques. De bons résultats dépendront de données de haute qualité et bien structurées et les organisations peuvent être responsables des erreurs.

Cependant, peu d'organisations ont suffisamment investi dans la qualité de leurs données pour que les produits d'IA commerciaux fonctionnent comme promis.

Sans ce travail fondamental, les outils d'IA ne fonctionneront pas comme annoncé. Comme une personne nous l'a dit, « les données sont le travail acharné ».

Les risques d'intimité et de cybersécurité sont réels

L'utilisation d'IA crée des flux de données complexes entre une organisation et des serveurs contrôlés par des entreprises géantes de technologie multinationale. Les grands fournisseurs d'IA promettent que ces flux de données respectent les lois concernant, par exemple, le maintien de données organisationnelles et personnelles en Australie et ne pas l'utiliser pour former leurs systèmes.

Cependant, nous avons trouvé que les utilisateurs étaient prudents quant à la fiabilité de ces promesses. Il y avait également une préoccupation considérable quant à la façon dont les produits pouvaient introduire de nouvelles fonctions d'IA sans que les organisations ne connaissent. L'utilisation de ces capacités d'IA peut créer de nouveaux flux de données sans les évaluations des risques nécessaires ou la vérification de la conformité.

Si les organisations gèrent des informations sensibles ou des données qui pourraient créer des risques de sécurité en cas de fuite, les fournisseurs et les produits doivent être surveillés pour s'assurer qu'ils se conforment aux règles existantes. Il existe également des risques si les travailleurs utilisent des outils d'IA accessibles au public tels que ChatGPT, qui ne garantissent pas la confidentialité pour les utilisateurs.

Comment l'IA est vraiment utilisée

Nous avons constaté que l'IA avait une productivité accrue sur les tâches « faibles » telles que la prise de notes de réunion et le service client, ou le travail effectué par les travailleurs juniors. Ici, l'IA peut aider à lisser les résultats des travailleurs qui peuvent avoir de mauvaises compétences linguistiques ou qui apprennent de nouvelles tâches.

Mais le maintien de la qualité et de la responsabilité nécessite généralement une surveillance humaine des résultats de l'IA. Les travailleurs ayant moins de compétences et d'expérience, qui bénéficieraient le plus des outils d'IA, sont également les moins capables de superviser et de revérifier la production d'IA.

Dans les zones où les enjeux et les risques sont plus élevés, la quantité de surveillance humaine nécessaire peut saper les gains de productivité.

De plus, nous avons constaté que lorsque les emplois deviennent principalement de superviser un système d'IA, les travailleurs peuvent se sentir aliénés et moins satisfaits de leur expérience de travail.

Nous avons constaté que l'IA est souvent utilisée à des fins douteuses. Les travailleurs peuvent utiliser l'IA pour prendre des raccourcis, sans comprendre les nuances de la conformité dans les directives organisationnelles.

Non seulement il y a des problèmes de sécurité des données et de confidentialité, mais l'utilisation de l'IA pour examiner et extraire des informations peut introduire d'autres risques éthiques, tels que l'agrandissement des biais humains existants.

Dans nos recherches, nous avons vu comment ces risques ont incité les organisations à utiliser plus d'IA – pour une surveillance améliorée du lieu de travail et des formes de contrôle du lieu de travail. Une récente enquête du gouvernement victorien a reconnu que ces méthodes peuvent être nocives pour les travailleurs.

La productivité est difficile à mesurer

Il n'y a pas de moyen facile pour une organisation de mesurer les changements de productivité dus à l'IA. Nous avons constaté que les organisations comptent souvent sur les commentaires de quelques travailleurs qualifiés qui sont bons à utiliser l'IA ou sur les réclamations des vendeurs.

Une personne interrogée nous a dit:

« Je vais utiliser le mot« recherche »très librement ici, mais Microsoft a fait ses propres recherches sur les gains de productivité que les organisations peuvent réaliser en utilisant Copilot, et j'ai été un peu surpris par la hauteur de ces chiffres. »

Les organisations peuvent vouloir que l'IA facilite les coupes du personnel ou augmente le débit.

Mais ces mesures ne tiennent pas compte des changements dans la qualité des produits ou services fournis aux clients. Ils ne capturent pas non plus comment l'expérience du lieu de travail change pour les travailleurs restants, ni les coûts considérables qui vont principalement aux consultants multinationaux et aux entreprises technologiques.