lavoratori intelligenza artificiale

Comment avoir une IA performante au travail

La crainte que l’intelligence artificielle soit mauvaise pour le travail – la dévalorise, la déprécie, la diminue non seulement en quantité mais en qualité – se matérialise sous des formes de plus en plus matures. Auparavant, nous nous demandions simplement qui risquait son emploi ; maintenant la question devient plus évoluée : comment construire une IA qui soit bonne pour le travail, pour les travailleurs ?

Un nouveau document du groupe Brookings-Hamilton Project, signé par trois éminents économistes du MIT, Daron Acemoglu, David Autor et Simon Johnson, le dit clairement : l'IA peut être pro-travailleurmais cela ne le devient pas tout seul. Nous devons modifier les incitations et les choix de conception, et la responsabilité n’incombe pas uniquement aux politiciens. Il appartient également à chaque entreprise de décider des objectifs, des données, des processus et de la gouvernance.

L'IA, la technologie d'automatisation la plus puissante de l'histoire

Aujourd’hui, environ la moitié des travailleurs américains (52 %) se disent inquiets de l’impact futur de l’IA sur le travail, selon le Pew Research Center. Et 32 % pensent que cela entraînera moins d’opportunités pour eux-mêmes, comparé à une minorité qui s’attend à plus d’opportunités que de risques.

Cette perception n’est pas « irrationnelle », « ludique », comme certains pourraient rapidement le conclure. Dans l’article de Brookings, les auteurs notent que l’IA est la technologie d’automatisation la plus puissante de l’histoire et que, dans certains cas, elle est utilisée explicitement par les entreprises à cette fin. Mais selon eux, la même technologie peut être utilisée pour accroître la capacité, la qualité et l’autonomie du travail plutôt que de réduire les salaires et les compétences. Le thème deAugmentation de l'IA ce n’est pas nouveau ; Autor et Acemoglu le perpétuent depuis des années (plus pleinement depuis 2023 avec le livre Pouvoir et progrès). Cependant, aujourd’hui, avec les progrès de l’IA générative et en particulier de l’IA agentique, nous devons accélérer.

Les affaires Block, Amazon et Burger King

La semaine dernière, Block, une plateforme de services financiers, a annoncé qu'elle licencierait quatre mille employés, sur un total de dix mille, au motif que l'intelligence artificielle pourrait faire son travail.

De nombreux experts doutent que ce soit là la véritable motivation ; Block est peut-être l'un de ces cas d'entreprises qui licencient pour des raisons plus banales (comme la nécessité de réaliser des bénéfices et de compenser les embauches excessives des années passées) mais préfèrent mentionner l'IA, pour paraître plus innovantes et dissimuler les erreurs passées. Une étude réalisée aujourd'hui par la BCE indique que l'impact de l'IA sur le travail reste positif.

Mais la question est plus complexe que cela.

Même dans les cas où les entreprises ont eu recours à des programmes d’IA sans procéder à des licenciements massifs, ils ont souvent été utilisés pour surveiller et contraindre les travailleurs plutôt que pour leur donner du pouvoir. Amazon dispose d'un programme de développement des employés et de surveillance des performances qu'il utilise dans ses entrepôts et de caméras toujours allumées qu'il installe dans ses véhicules de livraison, qui sont deux exemples bien connus.

Fin février, Burger King a annoncé qu'il testait de nouveaux casques alimentés par l'IA qui pourraient être utilisés, entre autres, pour vérifier si ses employés du service client disent « s'il vous plaît » et « merci ».

L’IA rend les travailleurs plus productifs, mais elle pourrait aussi les amener à grillerselon une nouvelle étude menée par des chercheurs de l'Université de Californie à Berkeley, dans les domaines de l'ingénierie, des produits, de la conception, de la recherche et des opérations.

Trois raisons expliquant l'augmentation de la charge de travail des employés

À mesure que la productivité des employés augmente, la charge de travail augmente également. Trois raisons.

Premièrement, la possibilité d’utiliser l’IA pour combler les lacunes des connaissances existantes a conduit les travailleurs à assumer des responsabilités plus larges et plus diversifiées, telles que celles des managers qui écrivent du code pour résoudre des problèmes qu’ils auraient auparavant externalisés.

Deuxièmement, la facilité avec laquelle de nouvelles tâches peuvent être démarrées et accomplies a conduit les travailleurs à intégrer de nouvelles tâches dans des pauses entre des réunions ou entre des tâches plus exigeantes, qui dans le passé auraient été considérées comme des pauses ou des occasions de discuter avec un collègue.

Enfin, la possibilité de confier certaines tâches à des agents IA a conduit à une augmentation du multitâche, les travailleurs commençant une série de tâches et passant de l’une à l’autre au fur et à mesure.

Ce sont différentes formes de « dégradation » du travail. Peut-être certains à l’avantage (au moins à court terme) des entreprises et de leurs investisseurs, mais tous au désavantage des travailleurs concernés.

« Faire plus en moins de temps »

Mais alors que faire ? les auteurs de la nouvelle étude proposent une définition : le pro-worker est une technologie qui valorise les compétences et l'expertise, car elle élargit les capacités du travailleur. Il ne suffit pas de « faire plus en moins de temps », un mantra qui se répand désormais dans les entreprises armées de l’IA. Nous avons besoin que la personne reste au centre du cycle décisionnel et que l’IA augmente ce que le travailleur peut faire tout en conservant son sens général et son action.

L'exemple le plus concret cité par le rapport est l'assistant d'électricien de Schneider Electric : un grand assistant basé sur un modèle de langage qui aide les ingénieurs à diagnostiquer les problèmes, à proposer des étapes itératives et à produire de la documentation. Parmi les effets constatés : pour les ingénieurs qui l'utilisent, le temps moyen de réalisation des rapports de maintenance est divisé par deux.

L'ingénieur reste informé, modifie les recommandations et utilise l'outil pour s'attaquer à des tâches encore plus complexes. Le rapport révèle une ambivalence : la même dynamique peut augmenter l'offre « effective » de personnes capables de réaliser des activités techniques, intensifiant ainsi la concurrence entre juniors et seniors.

La tâche des politiques publiques

D'où la proposition des auteurs : si l'entreprise veut collaborer, elle doit clarifier ce qui est collecté, dans quel but, avec quelles limites et quel retour pour ceux qui produisent cette connaissance.

Les auteurs soutiennent que l’offre d’IA favorable aux travailleurs est loin d’offrir des incitations faussées : de nombreuses entreprises gagnent plus facilement de l’argent grâce à l’automatisation qu’avec les outils « d’amélioration de l’emploi ».

Il appartient aux politiques publiques d’intervenir sur ces incitations, éventuellement au moyen de politiques fiscales différentes.

Le risque d’appropriation

Une partie du rapport qui s'adresse directement aux entreprises concerne le risque d'appropriation : l'IA se forme sur les contenus en ligne mais aussi, de plus en plus, sur les performances des salariés eux-mêmes. Les auteurs décrivent une dynamique : peu de travailleurs formeraient volontairement un « apprenti » destiné à les remplacer ; Pourtant, cela peut se produire lorsque l’entreprise utilise l’expertise interne comme raccourci pour créer une automatisation. Cette appropriation est l'image miroir de celle que subissent les auteurs (d'articles, de livres, de musique) de la part de l'IA qui s'entraîne avec leurs œuvres ou qui les réélabore en inférences.

L'IA n'améliore pas automatiquement les performances

Le rapport prévient qu’il est difficile de « bien réussir » dans la collaboration homme-machine : l’IA n’améliore pas automatiquement les performances. Dans certains contextes, la collaboration fonctionne, dans d'autres elle produit l'effet inverse, notamment lorsque l'être humain s'appuie trop sur l'outil ou lorsque le processus n'est pas conçu pour gérer les erreurs, les incertitudes et les cas limites.

Une méta-analyse publiée dans Comportement humain (plus d’une centaine d’études expérimentales) évalue qu’en moyenne les combinaisons humain-IA fonctionnent moins bien que les meilleures combinaisons entre humain et IA seules, avec des pertes particulièrement fréquentes dans les tâches de prise de décision.

Dans le même temps, il existe des cas où l’IA soutient réellement le travail, notamment lorsqu’elle transfère les bonnes pratiques et réduit les frictions dans les activités répétitives sans retirer le contrôle à ceux qui travaillent.

C'est ce que montre l'étude « Generative AI at Work », basée sur l'introduction échelonnée d'un assistant génératif dans un grand centre de contact (plus de cinq mille salariés) d'un Fortune 500 : la productivité augmente en moyenne et les bénéfices sont plus forts pour les profils moins expérimentés, avec des signaux cohérents avec un effet « formation » (l'assistant aide les nouveaux arrivants à se rapprocher plus rapidement des standards des meilleurs).

Voilà : l’IA pro-worker ne naît pas du modèle, mais de la manière dont elle s’insère dans le processus. Nous avons besoin de clarté sur qui décide, qui valide, quelles marges d’autonomie il reste aux gens et quelles mesures comptent (qualité, sécurité, erreurs, délais), et pas seulement le volume de production.

Confiance, adoption et éthique

Ici, une règle empirique souvent citée par ceux qui dirigent des produits et des organisations s'avère utile : Hilary Gridley (coach en IA) écrit dans son célèbre substack qu'il est peu probable qu'une équipe adopte l'IA si la direction semble déjà désireuse de la remplacer par des robots. C’est un thème de confiance et d’adoption avant même celui de l’éthique : si les gens voient l’IA comme un projet de réduction des effectifs, ils collaboreront peu et utiliseront les outils de manière défensive.

Les entreprises devraient plutôt partir de cas d’utilisation qui éliminent les frictions (documentation, recherche, triage, traductions), écrire les rôles et responsabilités humains (qui signe, qui vérifie, qui répond) et fixer des limites claires en matière de données et de surveillance.

Par ailleurs, en Europe, certaines règles vont dans le même sens : la loi IA impose qu'avant de mettre en service ou d'utiliser un système d'IA à haut risque sur le lieu de travail, l'employeur informe les représentants des travailleurs et les salariés concernés. C’est une obligation, mais cela peut aussi devenir un test de crédibilité : informer ne suffit pas, il faut expliquer les objectifs, les limites et les protections, et démontrer que l’IA est conçue pour augmenter les compétences et la qualité du travail, et pas seulement pour réduire les délais et les coûts.

La loi italienne sur l'IA

La loi italienne sur l’IA y insiste. L'art. 11 établit que l’IA doit être utilisée pour améliorer les conditions de travail et protéger l’intégrité psychophysique des travailleurs ; et cette utilisation doit être sûre, fiable, transparente, respecter la dignité humaine et la vie privée. Toujours l'art. 11 renvoie à l'art. 1-bis du décret législatif 152/1997 : en pratique, lorsque l'entreprise utilise des systèmes automatisés de prise de décision ou de contrôle (et donc souvent aussi l'IA) pour des aspects tels que l'embauche, la gestion/résiliation de la relation, l'attribution des tâches, la surveillance, l'évaluation et la performance, elle doit en informer le travailleur.
Dans le texte mentionné (rapporté dans les notes du Journal), les informations comprennent des éléments tels que les finalités, la logique de fonctionnement, les catégories de données/paramètres, les mesures de contrôle/correction ainsi que des indications sur

L'art. L’article 12 crée un observatoire au sein du ministère du Travail pour définir une stratégie sur l’utilisation de l’IA, surveiller l’impact sur le marché du travail, identifier les secteurs les plus exposés et promouvoir la formation des travailleurs et des employeurs.

Conclusions

Les réglementations et politiques industrielles d'un pays sont importantes, mais l'issue de ce jeu dépend également dans une large mesure des choix des entreprises et des dirigeants individuels. Tant qu’ils considéreront l’IA (uniquement) comme un moyen de réduire les coûts, en faisant plus avec moins, les travailleurs subiront des préjudices. Et peut-être aussi pour les entreprises elles-mêmes, qui auront raté l’opportunité d’un développement transformateur de la productivité.

Cela sera certainement préjudiciable à l'économie car, comme le notent les économistes du MIT, une seule utilisation de augmentation la technologie permet la création de nouveaux écosystèmes commerciaux, capables de promouvoir la croissance économique et sociale (et le bien-être) d’un pays.