L’équité, la diversité et l’inclusion doivent guider la mise en œuvre de l’IA sur le lieu de travail
Alors que l'intelligence artificielle (IA) continue de remodeler les industries et de transformer les lieux de travail, il est impératif que les organisations et les dirigeants examinent non seulement son impact sur la productivité, l'innovation et les gains économiques, mais également les implications éthiques liées à ces technologies transformatrices.
L’intégration d’une optique d’équité, de diversité et d’inclusion (EDI) dans les systèmes d’IA n’est plus un luxe ou une option. Il est essentiel de garantir que l’IA profite à tout le monde, y compris aux groupes méritant l’équité comme les femmes, les peuples autochtones, les personnes handicapées, les personnes noires et racialisées et les communautés 2SLGBTQ+.
Sans cet engagement, l’IA risque de renforcer les préjugés et les inégalités existants, notamment ceux fondés sur le genre, la race, l’orientation sexuelle et les handicaps visibles et invisibles. Nous connaissons déjà l’impact profond de l’IA sur les ressources humaines et le recrutement, mais ses impacts vont au-delà.
Même si les lacunes en matière d’adoption de l’IA dominent souvent les discussions, les préoccupations éthiques entourant son développement et son déploiement sont tout aussi cruciales. Ces questions ont de profondes implications en termes de leadership, de confiance et de responsabilité. Les dirigeants et les organisations ont besoin de davantage de soutien, d’éducation et d’orientation pour guider de manière responsable l’intégration de l’IA sur le lieu de travail.
La nécessité d’une IA éthique
L’IA a le potentiel de faire la lumière sur la discrimination systémique et de la combattre, mais seulement si elle est conçue et utilisée de manière éthique et inclusive. Les algorithmes d’apprentissage automatique apprennent des modèles à partir de grands ensembles de données, mais ces ensembles de données reflètent souvent des préjugés et une sous-représentation existants.
Les systèmes d’IA peuvent par inadvertance renforcer ces préjugés. En tant qu'universitaire et praticien, je sais que les données ne sont pas neutres ; il est façonné par le contexte – et les personnes – impliquées dans sa collecte et son analyse.
Un exemple clair de ce risque est le chatbot Tay Twitter de Microsoft, qui a commencé à republier des tweets racistes et a été fermé seulement 16 heures après sa publication. Tay « apprenait » de ses interactions avec les utilisateurs de Twitter.
De tels incidents ne sont pas seulement préjudiciables du point de vue des relations publiques, ils peuvent également affecter les employés, en particulier ceux issus de communautés marginalisées, qui peuvent se sentir exclus ou non soutenus par la technologie de leur propre organisation.
De même, il a été démontré que l’application d’avatar IA Lensa transforme les hommes en astronautes et en d’autres options amusantes et responsabilisantes, tout en sexualisant les femmes. Dans des secteurs déjà aux prises avec le sexisme, comme celui des jeux vidéo, cela envoie un message troublant aux utilisateurs, renforce les stéréotypes et crée un environnement de travail hostile pour les employés.
Les créateurs et les utilisateurs de technologies d’IA doivent intégrer les principes de l’EDI dès le départ. La diversité au sein des équipes de développement de l’IA est l’une des garanties les plus efficaces, car elle minimise les angles morts.
En intégrant dès le départ les valeurs de l’EDI dans l’IA, les créateurs et les utilisateurs peuvent garantir que les outils d’IA et leur utilisation n’aggravent pas les obstacles auxquels sont confrontés les groupes méritants d’équité, et que des mesures correctives sont élaborées pour atténuer les problèmes existants et émergents.
Les dirigeants doivent diriger
Les dirigeants doivent reconnaître comment l’IA peut générer des changements. Cela peut révéler des préjugés et des disparités cachés qui peuvent obliger à un jugement inconfortable et exiger de l’humilité. Reconnaître les préjugés peut être difficile : personne ne veut être partial, pourtant tout le monde l’est.
En intégrant l'EDI et l'IA, les dirigeants peuvent ouvrir de nouvelles opportunités aux groupes méritant l'équité. Par exemple, en combinant la puissance de l’IA et des équipes diversifiées, nous pouvons favoriser une conception de produits inclusive qui s’adressera à davantage de consommateurs et mènera à davantage de succès pour l’organisation.
L’IA doit être considérée comme un outil supplémentaire pour aider les décideurs, et non comme un substitut. Les dirigeants doivent veiller à ce que les systèmes d’IA soient conçus et déployés en mettant l’inclusion au cœur de leurs préoccupations. Ils doivent remédier aux disparités potentielles avant qu’elles ne soient encodées dans la prise de décision algorithmique, et corriger les erreurs restantes en fin de compte.
La responsabilité reste au niveau humain ; les dirigeants ont besoin d’humilité et de courage.
L'IA est là pour rester
La transparence, la responsabilité et l'inclusivité deviennent de plus en plus essentielles dans un monde où les consommateurs et les employés exigent des pratiques plus éthiques de la part des entreprises et des lieux de travail.
Les organisations qui intègrent les principes éthiques de l’IA dans leurs systèmes éviteront non seulement de renforcer les inégalités, mais se positionneront également en tant que leaders sur le marché. Certains de ces principes incluent l’équité, la transparence, le contrôle humain, la diversité dans l’apprentissage/la représentativité des ensembles de données et la non-discrimination.
S’attaquer à ce problème peut renforcer la confiance, combler les lacunes en matière d’adoption et lutter contre les préjugés qui peuvent perpétuer les inégalités. L’IA est là pour rester et elle jouera certainement un rôle encore plus important dans nos vies au cours des prochaines années. À mesure que cela fait de plus en plus partie intégrante de la société, la mise en œuvre de ce type de principes est essentielle.
Des mécanismes et des pratiques de responsabilisation clairs peuvent contribuer à garantir que les systèmes d’IA fonctionnent d’une manière qui correspond aux valeurs d’une organisation et de la société dans son ensemble. Ces considérations incluent la vérification et la validation des résultats de l’IA, la garantie de l’explicabilité (la capacité d’expliquer et de justifier les résultats), ainsi que la conception et la mise en œuvre de mécanismes pour corriger et traiter les préjugés.
Les dirigeants doivent favoriser une culture d’innovation et de responsabilité, dans laquelle les développeurs, les scientifiques des données et les autres parties prenantes comprennent leur rôle pour minimiser les préjugés, garantir l’équité et donner la priorité à l’inclusivité. Cela peut inclure la poursuite d’une certification EDI pour sensibiliser et responsabiliser les préjugés à tous les niveaux d’une organisation.
Sans ces engagements, la confiance du public dans l’IA pourrait être ébranlée et éroder les avantages potentiels qu’offrent ces technologies, ce qui a déjà constitué un problème au cours des dernières années.
Stratégies pour gérer l'IA
Les dirigeants ont un rôle crucial à jouer, reconnaissant que l’IA, bien que transformatrice, ne remplace pas la surveillance humaine. L’IA à elle seule n’est pas une panacée pour éliminer les préjugés. Pour aller de l’avant, les organisations doivent :
- Impliquez diverses équipes dans le développement de l’IA pour garantir que des perspectives variées et des expériences vécues façonnent la technologie, améliorent les données et encadrent son utilisation.
- Cultiver des lieux de travail inclusifs où les membres des groupes méritant l’équité se sentent en sécurité, peuvent être authentiques, utiliser leur voix et se sentir entendus et valorisés, y compris lorsqu’ils signalent des lacunes et des préjugés.
- Donner la priorité au perfectionnement et au recyclage des employés et des dirigeants pour améliorer les connaissances en IA et renforcer les compétences transférables essentielles telles que la pensée critique, l’adaptabilité, la créativité et les compétences liées à l’EDI.
- Établissez des cadres de responsabilité clairs et effectuez des audits réguliers et rigoureux pour détecter et atténuer les biais dans les systèmes d’IA. Les cadres devraient évoluer à mesure que l’IA évolue.
- Travaillez avec d'autres groupes externes, notamment des gouvernements, des organismes à but non lucratif ou des établissements d'enseignement, comme l'Institut des administrateurs de sociétés, le Vector Institute for Artificial Intelligence ou le Mila AI Institute, pour créer un écosystème où les soutiens, les ressources et les informations sont facilement disponibles.
En donnant la priorité à ces pratiques, les organisations et les dirigeants peuvent faire de l’IA à la fois une force d’innovation et de croissance économique, et un modèle de responsabilité éthique favorisant l’inclusion des groupes méritant l’équité. L’IA devrait profiter à tous, sur le lieu de travail et dans la société.