Nous devons équilibrer les risques et les avantages de l’IA
Le potentiel de l’IA pour transformer la vie des gens dans des domaines allant des soins de santé à un meilleur service client est énorme. Mais à mesure que la technologie progresse, nous devons adopter des politiques pour nous assurer que les risques ne submergent pas et étouffent ces avantages.
Surtout, nous devons être en état d’alerte pour les biais algorithmiques qui pourraient perpétuer les inégalités et la marginalisation des communautés du monde entier.
Le biais algorithmique se produit lorsque les systèmes – souvent en fonction de l’apprentissage automatique ou de l’IA – des résultats ou des décisions biaisés par les livraisons car les données qui lui ont été données sont incomplètes, déséquilibrées ou non entièrement représentatives.
Moi et des collègues ici à Cambridge et à la Warwick Business School avons proposé une nouvelle façon de penser à la question – nous appelons cela une «perspective de risque relationnelle». Cette approche examine non seulement la façon dont l’IA est utilisée maintenant, mais comment elle peut être utilisée à l’avenir et à différentes géographies, en évitant ce que nous appelons «le côté obscur de l’IA». L’objectif est de protéger les avantages de l’IA pour tout le monde, tout en minimisant le préjudice.
Nous considérons le lieu de travail comme un exemple. L’IA a déjà un impact énorme sur les emplois, affectant les tâches de routine et créatives, et affectant les activités que nous avons considérées comme des humains uniquement humains – comme créer des scripts de films ou d’écriture.
Alors que les entreprises utilisent davantage la technologie et deviennent peut-être trop dépendantes, nous risquons de saper l’expertise professionnelle et la réflexion critique, laissant les travailleurs désactivés et qui devraient s’en remettre aux décisions générées par la machine.
Cela aura un impact sur les tâches non seulement, mais aussi le tissu social du lieu de travail, en influençant la façon dont les travailleurs se rapportent les uns aux autres et aux organisations. Si l’IA est utilisée dans le recrutement, un manque de représentation dans les ensembles de données peut renforcer les inégalités lorsqu’ils sont utilisés pour prendre des décisions concernant l’embauche ou les promotions.
Nous explorons également comment cette industrie d’un milliard de dollars est souvent soutenue par des travailleurs largement «invisibles» dans le Sud mondial qui nettoient les données et affinent les algorithmes pour un groupe utilisateur principalement dans le Nord mondial. Ce «colonialisme des données» reflète non seulement les inégalités mondiales, mais renforce également la marginalisation: les personnes dont le travail permet à l’IA de prospérer sont les mêmes personnes qui sont largement exclues des avantages de cette technologie.
Les données sur les soins de santé sont en particulier le danger de ces biais basés sur les données, nous devons donc nous assurer que les informations liées à la santé analysées par les grands modèles de langage utilisés pour former des outils d’IA reflètent une population diversifiée. Baser la politique de santé sur les données des communautés sélectionnées et peut-être plus privilégiées peut conduire à un cycle vicieux dans lequel la disparité est plus profondément ancrée.
Réaliser son potentiel
Je crois que nous pouvons contrer ces menaces, mais le temps est de l’essence alors que l’IA devient rapidement ancrée dans la société. Nous devons nous rappeler que l’IA génératrice est toujours une technologie émergente et noter qu’elle progresse plus rapidement que le paysage éthique ou réglementaire ne peut suivre le rythme.
Notre perspective de risque relationnel ne présente pas l’IA comme intrinsèquement bonne ou mauvaise. L’IA est plutôt considérée comme ayant un potentiel de bénéfice et de préjudice en fonction de la façon dont il est développé et expérimenté dans différents contextes sociaux. Nous reconnaissons également que les risques ne sont pas statiques, car ils évoluent avec l’évolution des relations entre la technologie, ses utilisateurs et les structures sociétales plus larges.
Les décideurs et les technologues devraient anticiper, plutôt que réagir, les façons dont l’IA peut ancrer ou contester les inégalités existantes. Ils doivent également considérer que certains pays peuvent développer une maturité de l’IA plus rapidement que d’autres.
Enfin, appuyons sur les parties prenantes de loin pour établir une politique de risque d’IA. Une approche multidisciplinaire qui aidera à éviter les biais, tout en aidant en même temps à démontrer au public que la politique de l’IA reflète vraiment des intérêts et des communautés variés et divers.