Des chercheurs explorent comment l’IA peut renforcer, et non remplacer, la collaboration humaine

Des chercheurs explorent comment l’IA peut renforcer, et non remplacer, la collaboration humaine

Des chercheurs de la Tepper School of Business de l'Université Carnegie Mellon apprennent comment l'IA peut être utilisée pour soutenir le travail d'équipe plutôt que pour remplacer les coéquipiers.

Anita Williams Woolley est professeur de comportement organisationnel. Elle étudie l'intelligence collective, ou la façon dont les équipes fonctionnent ensemble, et comment l'intelligence artificielle pourrait changer la dynamique de la main-d'œuvre. Aujourd’hui, Woolley et ses collègues tentent de déterminer exactement où et comment l’IA peut jouer un rôle positif.

« Je suis toujours intéressé par la technologie qui peut nous aider à devenir une meilleure version de nous-mêmes individuellement », a déclaré Woolley, « mais aussi collectivement, comment pouvons-nous changer notre façon de penser et de structurer le travail pour être plus efficace ? »

Woolley a collaboré avec des technologues et d'autres dans son domaine pour développer Collective HUman-MAchine INtelligence (COHUMAIN), un cadre qui cherche à comprendre où l'IA s'inscrit dans les limites établies de la psychologie sociale organisationnelle.

Les chercheurs à l’origine de la publication de COHUMAIN en 2023 mettent en garde contre le traitement de l’IA comme n’importe quel autre coéquipier. Ils le voient plutôt comme un partenaire qui travaille sous la direction humaine, avec le potentiel de renforcer les capacités ou les relations existantes. « Les agents d'IA pourraient créer le ciment qui manque en raison de l'évolution de nos environnements de travail et, à terme, améliorer nos relations les uns avec les autres », a déclaré Woolley.

La recherche qui constitue l'architecture COHUMAIN souligne que même si l'intégration de l'IA sur le lieu de travail peut prendre forme d'une manière que nous ne comprenons pas encore, elle ne changera pas les principes fondamentaux qui sous-tendent l'intelligence organisationnelle et ne pourra probablement pas remplir tous les mêmes rôles que les humains.

Par exemple, même si l’IA peut être efficace pour résumer une réunion, il appartient toujours aux participants de ressentir l’ambiance de la salle ou de saisir le contexte plus large de la discussion.

Les organisations ont les mêmes besoins qu’avant, y compris une structure qui leur permet d’exploiter l’expertise unique de chaque membre humain de l’équipe. Woolley a déclaré que les systèmes d'intelligence artificielle peuvent mieux servir dans des rôles de « partenariat » ou de facilitation plutôt que dans des rôles de gestion, comme un outil qui peut inciter ses pairs à s'enregistrer les uns avec les autres, ou fournir à l'utilisateur une perspective alternative.

Sécurité et risque

Avec autant de collaboration via les écrans, les outils d’IA pourraient aider les équipes à renforcer les liens entre les collègues. Mais ces mêmes outils soulèvent également des questions sur ce qui est enregistré et pourquoi.

« Les gens sont très sensibles, à juste titre, à la question de la vie privée. Souvent, il faut renoncer à quelque chose pour obtenir quelque chose, et c'est vrai ici », a déclaré Wooley.

Le niveau de risque ressenti par les utilisateurs, tant sur le plan social que professionnel, peut changer en fonction de la manière dont ils interagissent avec l'IA, selon Allen Brown, titulaire d'un doctorat. étudiant qui travaille en étroite collaboration avec Woolley. Brown explore où cette tension apparaît et comment les équipes peuvent y remédier. Ses recherches portent sur la mesure dans laquelle les gens se sentent à l’aise de prendre des risques ou de s’exprimer dans un groupe.

Brown a déclaré que, dans le meilleur des cas, l’IA pourrait aider les gens à se sentir plus à l’aise pour s’exprimer et partager de nouvelles idées qui autrement ne pourraient pas être entendues. « Dans une salle de classe, on peut imaginer quelqu'un dire : « Oh, je suis un peu inquiet. Je n'en sais pas assez pour mon professeur, ni comment mes pairs vont juger ma question », ou « Je pense que c'est une bonne idée, mais peut-être que ce n'est pas le cas. » Nous ne le saurons pas tant que nous ne l'aurons pas publié.

Étant donné que l’IA repose sur un enregistrement numérique qui peut ou non être conservé en permanence, l’une des préoccupations est qu’un humain pourrait ne pas savoir quelles interactions avec une IA seront utilisées pour l’évaluation.

« Dans nos espaces de travail de plus en plus numériques, une grande partie de ce que nous faisons est suivie et documentée », a déclaré Brown. « Il existe un enregistrement numérique des choses, et si je prends conscience que, 'Oh, tout d'un coup, notre conversation pourrait être utilisée à des fins d'évaluation', nous constatons réellement cette différence significative dans l'interaction. »

Même lorsqu’ils pensaient que leurs commentaires pourraient être surveillés ou jugés par des professionnels, les gens se sentaient toujours relativement en sécurité pour parler à un autre être humain. « Nous parlons ensemble. Nous travaillons sur quelque chose ensemble, mais nous sommes tous les deux des personnes. Il y a une sorte de prise de risque mutuelle », a-t-il expliqué.

L’étude a révélé que les gens se sentaient plus vulnérables lorsqu’ils pensaient qu’un système d’IA les évaluait. Brown souhaite comprendre comment l’IA peut être utilisée pour créer l’effet inverse, celui qui renforce la confiance.

« Quels sont les contextes dans lesquels l'IA pourrait être un partenaire, pourrait faire partie de cette pratique de communication conversationnelle au sein d'une paire d'individus au travail, comme une relation superviseur-supervisé, ou peut-être au sein d'une équipe où ils travaillent sur un sujet qui pourrait avoir un conflit de tâches ou un conflit relationnel ? » » a déclaré Brown. « Comment l'IA aide-t-elle à résoudre le processus décisionnel ou à améliorer la résolution afin que les gens ressentent réellement une sécurité psychologique accrue ? »

Créer une IA plus fiable

Au niveau individuel, les chercheurs de Tepper apprennent également comment la manière dont l’IA explique son raisonnement affecte la façon dont les gens l’utilisent et lui font confiance. Zhaohui (Zoey) Jiang et Linda Argote étudient la façon dont les gens réagissent à différents types de systèmes d'IA, en particulier ceux qui expliquent leur raisonnement (IA transparente) et ceux qui n'expliquent pas comment ils prennent leurs décisions (IA boîte noire).

« Nous voyons beaucoup de gens plaider en faveur d'une IA transparente », a déclaré Jiang, « mais nos recherches révèlent un avantage à garder l'IA comme une boîte noire, en particulier pour un participant de haut niveau. »

L’une des raisons à cela, a-t-elle expliqué, est l’excès de confiance et la méfiance à l’égard des décideurs compétents.

« Pour un participant qui fait déjà du bon travail de manière indépendante dans la tâche, il est plus enclin à la tendance bien documentée de l'aversion pour l'IA. Il pénalisera l'erreur de l'IA bien plus que les humains qui commettent la même erreur, y compris eux-mêmes », a déclaré Jiang. « Nous constatons que cette tendance est plus marquante si vous leur expliquez le fonctionnement interne de l'IA, comme sa logique ou ses règles de décision. »

Les personnes qui ont des difficultés à prendre des décisions améliorent en réalité leurs résultats lorsqu’elles utilisent des modèles d’IA transparents qui mettent en évidence une complexité modérée dans leur processus de prise de décision. « Nous constatons qu'il est en fait préférable pour les utilisateurs moins qualifiés de leur expliquer comment l'IA réfléchit à ce problème, car ils peuvent apprendre des règles de prise de décision de l'IA pour les aider à améliorer leur propre prise de décision indépendante future. »

Même si la transparence s'avère avoir ses propres cas d'utilisation et ses propres avantages, Jiang a déclaré que les découvertes les plus surprenantes concernent la façon dont les gens perçoivent les modèles de boîtes noires. « Lorsque nous n'expliquons pas à ces participants comment le modèle est arrivé à sa réponse, ils jugent le modèle comme le plus complexe. L'opacité semble gonfler le sentiment de sophistication, alors que la transparence peut rendre le même système plus simple et moins « magique », a-t-elle déclaré.

Les deux types de modèles varient dans leurs cas d’utilisation. Même s'il n'est pas encore rentable d'adapter une IA à chaque partenaire humain, les futurs systèmes pourraient être capables d'auto-adapter leur représentation pour aider les gens à prendre de meilleures décisions, a-t-elle déclaré.

« Il peut être dynamique dans le sens où il peut reconnaître les inefficacités décisionnelles de la personne particulière avec laquelle il est chargé de collaborer, et peut-être s'adapter afin de pouvoir aider à compléter et compenser certaines des inefficacités décisionnelles. »