Une étude explore la façon dont les gens perçoivent et déclarent leur paternité de textes générés artificiellement

L’enquête majeure révèle que la plupart des gens utilisent régulièrement l’IA au travail, mais presque la moitié admettent de le faire de manière inappropriée

Avez-vous déjà utilisé Chatgpt pour rédiger un e-mail de travail? Peut-être pour résumer un rapport, rechercher un sujet ou analyser les données dans une feuille de calcul? Si oui, vous n’êtes certainement pas seul.

Les outils d’intelligence artificielle (IA) transforment rapidement le monde du travail. Sortie aujourd’hui, notre étude mondiale de plus de 32 000 travailleurs de 47 pays montre que 58% des employés utilisent intentionnellement l’IA au travail – avec un tiers l’utiliser chaque semaine ou quotidiennement.

La plupart des employés qui l’utilisent disent avoir gagné des avantages réels de productivité et de performance de l’adoption d’outils d’IA.

Cependant, un nombre préoccupant utilise l’IA de manière très risquée, tels que le téléchargement d’informations sensibles dans les outils publics, en s’appuyant sur des réponses d’IA sans les vérifier et en cachant leur utilisation.

Il y a un besoin urgent de politiques, de formation et de gouvernance sur l’utilisation responsable de l’IA, pour s’assurer qu’elle améliore – ne sapée pas – comment le travail est effectué.

Nos recherches

Nous avons interrogé 32 352 employés dans 47 pays, couvrant toutes les régions géographiques mondiales et les groupes professionnels.

La plupart des employés signalent les avantages sociaux de l’adoption de l’IA au travail. Il s’agit notamment d’améliorations dans:

  • Efficacité (67%)
  • Accès à l’information (61%)
  • Innovation (59%)
  • Qualité de travail (58%).

Ces résultats font écho à des recherches antérieures démontrant que l’IA peut générer des gains de productivité pour les employés et les organisations.

Nous avons trouvé que les outils d’IA génératifs à usage général, tels que Chatgpt, sont de loin les plus utilisés. Environ 70% des employés comptent sur des outils publics gratuits, plutôt que des solutions d’IA fournies par leur employeur (42%).

Cependant, près de la moitié des employés que nous avons interrogés qui utilisent l’IA disent qu’ils l’ont fait d’une manière qui pourrait être considéré comme inapproprié (47%) et encore plus (63%) ont vu d’autres employés utiliser l’IA de manière inappropriée.

Informations sensibles

Une préoccupation clé concernant les outils d’IA sur le lieu de travail est la gestion des informations sensibles de l’entreprise, comme les informations financières, les ventes ou les clients.

Près de la moitié (48%) des employés ont téléchargé des informations sensibles aux entreprises ou aux clients dans des outils d’IA génératifs publics, et 44% admettent avoir utilisé l’IA au travail d’une manière qui va à l’encontre des politiques organisationnelles.

Cela s’aligne sur d’autres recherches montrant 27% du contenu dans les outils d’IA par les employés est sensible.

Vérifiez votre réponse

Nous avons constaté que l’utilisation complaisante de l’IA était également répandue, 66% des répondants disant qu’ils s’étaient appuyés sur la sortie de l’IA sans l’évaluer. Il n’est donc pas surprenant qu’une majorité (56%) ait commis des erreurs dans leur travail en raison de l’IA.

Les jeunes employés (âgés de 18 à 34 ans) sont plus susceptibles de s’engager dans une utilisation inappropriée et complaisante que les employés plus âgés (âgés de 35 ans ou plus).

Cela comporte de sérieux risques pour les organisations et les employés. Ces erreurs ont déjà conduit à des cas bien documentés de perte financière, de dommages de réputation et de violations de confidentialité.

Environ un tiers (35%) des employés affirment que l’utilisation d’outils d’IA sur leur lieu de travail a des risques de confidentialité et de conformité accrus.

L'enquête majeure révèle que la plupart des gens utilisent régulièrement l'IA au travail, mais presque la moitié admettent de le faire de manière inappropriée

«Shadow  » utilise

Lorsque les employés ne sont pas transparents sur la façon dont ils utilisent l’IA, les risques deviennent encore plus difficiles à gérer.

Nous avons constaté que la plupart des employés ont évité de révéler lorsqu’ils utilisent l’IA (61%), ont présenté le contenu généré par l’AI comme le leur (55%) et ont utilisé des outils d’IA sans savoir s’il est autorisé (66%).

Cette utilisation invisible ou «ombre AI» n’exacerait pas seulement les risques – il entrave également gravement la capacité d’une organisation à détecter, gérer et atténuer les risques.

Un manque de formation, d’orientation et de gouvernance semble alimenter cette utilisation complaisante. Malgré leur prévalence, seulement un tiers des employés (34%) affirment que leur organisation a une politique guidant l’utilisation d’outils d’IA génératifs, 6% affirmant que leur organisation l’interdit.

La pression pour adopter l’IA peut également alimenter une utilisation complaisante, la moitié des employés craignant d’être laissés pour compte s’ils ne le font pas.

Meilleure littératie et surveillance

Collectivement, nos résultats révèlent une lacune importante dans la gouvernance des outils d’IA et un besoin urgent pour les organisations de guider et de gérer la façon dont les employés les utilisent dans leur travail quotidien. S’attaquer à cela nécessitera une approche proactive et délibérée.

Investir dans la formation responsable de l’IA et le développement de l’alphabétisation de l’IA des employés est la clé. Notre modélisation montre l’alphabétisation autodéclarée de l’IA – y compris la formation, les connaissances et l’efficacité – prête non seulement si les employés adoptent des outils d’IA mais aussi s’ils s’engagent de manière critique avec eux.

Cela inclut la façon dont ils vérifient la sortie des outils et envisagent leurs limites avant de prendre des décisions.

Nous avons constaté que l’alphabétisation de l’IA est également associée à une plus grande confiance dans l’utilisation de l’IA au travail et à des avantages plus performants de son utilisation.

Malgré cela, moins de la moitié des employés (47%) déclarent avoir reçu une formation en IA ou une éducation connexe.

Les organisations doivent également mettre en place des politiques claires, des directives et des garde-corps, des systèmes de responsabilité et de surveillance, ainsi que des mesures de confidentialité et de sécurité des données.

Il existe de nombreuses ressources pour aider les organisations à développer des systèmes de gouvernance d’IA robustes et à soutenir l’utilisation responsable de l’IA.

La bonne culture

En plus de cela, il est crucial de créer un environnement de travail psychologiquement sûr, où les employés se sentent à l’aise de partager comment et quand ils utilisent des outils d’IA.

Les avantages d’une telle culture vont au-delà de la meilleure surveillance et de la gestion des risques. Il est également essentiel de développer une culture d’apprentissage et d’expérimentation partagés qui soutient la diffusion responsable de l’utilisation et de l’innovation de l’IA.

L’IA a le potentiel d’améliorer notre façon de travailler. Mais il faut une main-d’œuvre alphabétisée, une gouvernance robuste et des conseils clairs, et une culture qui soutient une utilisation sûre, transparente et responsable. Sans ces éléments, l’IA ne devient qu’une autre responsabilité non gérée.