Les outils d'IA promettent l'efficacité au travail, mais ils peuvent éroder la confiance, la créativité et l'action.

Les outils d'IA promettent l'efficacité au travail, mais ils peuvent éroder la confiance, la créativité et l'action.

Et si votre plus grand atout concurrentiel n’était pas la rapidité avec laquelle l’IA vous aide à travailler, mais la façon dont vous remettez en question ce qu’elle produit ?

Les chefs d’entreprise ont tendance à donner la priorité à l’efficacité et à la conformité sur le lieu de travail. C'est l'une des raisons pour lesquelles tant de personnes sont attirées par l'intégration des technologies d'IA générative dans leurs flux de travail. Une enquête récente a révélé que 63 % des responsables informatiques mondiaux craignent que leur entreprise ne soit laissée pour compte sans l’adoption de l’IA.

Mais dans la précipitation pour adopter l’IA, certaines organisations négligent l’impact réel qu’elle peut avoir sur les travailleurs et la culture d’entreprise.

La plupart des stratégies organisationnelles se concentrent sur les efficacités à court terme de l’IA, telles que l’automatisation, la rapidité et la réduction des coûts. Ce qui a tendance à être négligé, ce sont les impacts de l’IA sur la cognition, l’action et les normes culturelles. L’IA restructure fondamentalement non seulement ce que nous savons, mais aussi comment nous le savons.

À mesure que l’IA devient plus intégrée, elle continuera d’influencer le ton, le rythme, le style de communication et les normes de prise de décision de l’organisation. C'est pourquoi les dirigeants doivent fixer des limites délibérées et façonner consciemment la culture organisationnelle en ce qui concerne l'intégration de l'IA.

Une fois intégrée aux flux de travail, l’IA influence les paramètres par défaut du lieu de travail : quelles sources apparaissent en premier, quel ton prend un mémo et où les managers fixent la barre du « assez bien ». Si les gens ne définissent pas ces valeurs par défaut, des outils comme l’IA le feront à la place.

En tant que chercheurs qui étudient l’IA, la psychologie, l’interaction homme-machine et l’éthique, nous sommes profondément préoccupés par les effets et les conséquences cachés de l’utilisation de l’IA.

Effets psychologiques de l'IA au travail

Les chercheurs commencent à documenter un certain nombre d’effets psychologiques associés à l’utilisation de l’IA sur le lieu de travail. Ces impacts révèlent les lacunes actuelles dans la conscience épistémique (comment nous savons ce que nous savons) et comment ces lacunes peuvent affaiblir les frontières émotionnelles.

De tels changements peuvent affecter la façon dont les gens prennent des décisions, calibrent la confiance et maintiennent la sécurité psychologique dans les environnements médiés par l’IA.

L’un des effets les plus importants est connu sous le nom de « biais d’automatisation ». Une fois l’IA intégrée au flux de travail d’une entreprise, ses résultats sont souvent internalisés en tant que sources de vérité faisant autorité.

Parce que les résultats générés par l’IA semblent fluides et objectifs, ils peuvent être acceptés sans esprit critique, créant un sentiment de confiance exagéré et une dangereuse illusion de compétence.

Une étude récente a révélé que dans 40 % des tâches, les travailleurs du savoir (ceux qui transforment les informations en décisions ou en livrables, comme les rédacteurs, les analystes et les concepteurs) acceptaient les résultats de l'IA sans aucun examen critique et sans aucun examen minutieux.

L’érosion de la confiance en soi

Une deuxième préoccupation est l’érosion de la confiance en soi. L’engagement continu avec le contenu généré par l’IA amène les travailleurs à remettre en question leurs instincts et à s’appuyer excessivement sur les conseils de l’IA, souvent sans s’en rendre compte. Au fil du temps, le travail passe de la génération d’idées à la simple approbation de celles générées par l’IA. Cela entraîne une diminution du jugement personnel, de la créativité et de la paternité originale.

Une étude a révélé que les utilisateurs ont tendance à suivre les conseils de l’IA même lorsqu’ils contredisent leur propre jugement, ce qui entraîne une perte de confiance et une prise de décision autonome. D'autres recherches montrent que lorsque les systèmes d'IA fournissent des commentaires affirmatifs, même pour des réponses incorrectes, les utilisateurs deviennent plus confiants dans leurs décisions, ce qui peut fausser leur jugement.

Les travailleurs peuvent finir par s’en remettre à l’IA en tant qu’autorité malgré son manque d’expérience vécue, de raisonnement moral ou de compréhension contextuelle. La productivité peut paraître plus élevée à court terme, mais la qualité des décisions, la confiance en soi et le contrôle éthique pourraient en fin de compte en souffrir.

De nouvelles preuves soulignent également les effets neurologiques d’une dépendance excessive à l’égard de l’utilisation de l’IA. Une étude récente et émergente a suivi l'activité cérébrale des professionnels sur quatre mois et a révélé que les utilisateurs de ChatGPT présentaient 55 % de connectivité neuronale en moins par rapport à ceux travaillant sans aide. Ils ont eu du mal à se souvenir des essais qu'ils venaient de co-écrire quelques instants plus tard, et ont également réduit leur engagement créatif.

Alors, que peuvent faire les dirigeants et les managers pour y remédier ?

Ce que les dirigeants et les managers peuvent faire

La résilience est devenue un mot à la mode dans les entreprises, mais une véritable résilience peut aider les organisations à s’adapter à l’IA.

Les organisations résilientes apprennent à leurs employés à collaborer efficacement avec l’IA sans trop dépendre de ses résultats. Cela nécessite une formation systématique aux compétences interprétatives et critiques pour construire une collaboration homme-IA équilibrée et éthique.

Les organisations qui privilégient la critique plutôt que l’acceptation passive deviendront plus aptes à penser de manière critique, à adapter efficacement leurs connaissances et à renforcer leurs capacités éthiques. Une façon d’y parvenir consiste à passer d’une mentalité axée sur la croissance à une mentalité adaptative. Ce qui, en pratique, signifie que les lieux de travail devraient chercher à faire ce qui suit :

  1. Formez les gens à distinguer la fluidité de l’exactitude et à se demander d’où vient l’information plutôt que d’en être simplement des consommateurs passifs. Avec une meilleure conscience épistémique, les travailleurs deviennent des interprètes actifs comprenant ce que dit un outil d’IA, ainsi que comment et pourquoi il le dit.
  2. Apprenez aux gens à surveiller leurs processus de réflexion et à remettre en question les sources de connaissances. Une étude récente a montré que les professionnels dotés de solides pratiques métacognitives, telles que la planification, l’auto-surveillance et la révision rapide, faisaient preuve d’une créativité nettement plus élevée lorsqu’ils utilisaient des outils d’IA, tandis que d’autres n’y voyaient aucun avantage. Cela signifie que la métacognition pourrait être le « chaînon manquant » pour une utilisation productive du LLM.
  3. Évitez une approche universelle et envisagez les niveaux d’automatisation par étapes de tâche. Les développeurs d’outils d’IA devraient être encouragés à définir des rôles clairs lorsque le modèle rédige ou analyse, lorsque l’humain dirige et lorsque la vérification est obligatoire. Pensez à ajouter des éléments tels que l’utilisation de l’IA aux tableaux de responsabilités et de responsabilisation.
  4. Créez des cultures de travail qui encouragent les travailleurs à remettre en question les résultats de l’IA, suivez ces défis comme des signaux de qualité et prévoyez du temps pour la vérification. Les lieux de travail devraient publier des normes de style pour la rédaction assistée par l'IA, définir des seuils de confiance et des exigences en matière de preuves par fonction, et spécifier qui approuve à chaque niveau de risque.
  5. Organisez des « examens de dérive » trimestriels pour repérer les changements de ton, de confiance ou de préjugés, avant qu'ils ne se calcifient dans la culture organisationnelle.

L’efficacité ne décidera pas des gagnants

Comme nous commençons à le constater, la recherche de l’efficacité ne déterminera pas quelles entreprises réussiront le mieux ; la capacité d’interpréter et d’évaluer de manière critique les résultats de l’IA le fera.

Les entreprises qui associent rapidité et scepticisme et protègent leur jugement comme un atout de premier ordre géreront mieux la volatilité que celles qui traitent l’IA comme un pilote automatique. La rapidité peut vous amener à prendre la prochaine décision, mais le jugement vous permet de rester en affaires.

L’intelligence éthique dans les organisations nécessite un investissement continu dans la conscience épistémique, les compétences d’interprétation, la sécurité psychologique et une conception active axée sur les valeurs.

Les entreprises capables d’équilibrer l’innovation technologique avec une pensée critique et une profonde compréhension éthique seront celles qui prospéreront à l’ère de l’IA.