Naviguer dans la confiance à une ère d’augmentation de l’influence de l’IA
En 2025, il peut sembler que les générations futures des défenseurs de l’IA promises sont enfin arrivées. Nous voyons les avantages de l’intelligence artificielle quotidiennement – nous l’utilisons pour nous aider à naviguer dans le trafic, à identifier de nouvelles combinaisons de médicaments afin de traiter la maladie et de localiser rapidement les bourses en ligne.
Mais avec sa prévalence et sa sophistication croissantes, de nouveaux niveaux de malaise sur l’impact de l’IA sur la culture et la société. Lorsque Coca-Cola a publié une vidéo de Noël promotionnelle créée par des modèles d’IA génératifs en novembre 2024, le travail a été ridiculisé comme « dépourvu de toute créativité réelle » et considérée par beaucoup comme un exemple du remplacement des travailleurs humains par une technologie formée sur le travail des artistes, sans compensation ni attribution.
Récemment, l’Europe a vu l’impact potentiel de la réalité créée par l’IA sur la politique électorale. L’alternative d’extrême droite de l’Allemagne pour l’Allemagne, ou AFD, a développé une annonce de campagne en utilisant des vidéos et des images générées par l’IA pour représenter « un pays qui n’a jamais réellement existé », a écrit Politico avant les élections du 23 février du pays.
« Un contenu généré par AI comme celui-ci aide … (la) alternative anti-migration et populiste pour le parti de l’Allemagne … faire des deux côtés de sa vision – l’idyllique, l’avenir axé sur la nostalgie, il promet d’apporter ainsi que celui dystopique qui a averti son soutien aux autres – regarde le vote de façon incroyable », a ajouté de l’AFD, qui a doublé son soutien à 21 pour cent du vote du dernier mois.
Début mars, le Los Angeles Times a lancé un « compteur de biais » – un outil d’IA visant prétendument à détecter la pente politique des pièces d’opinion du journal et à fournir un contenu et un contexte supplémentaires pour parvenir à « l’équilibre ». Mais il a tiré l’outil d’évaluer l’une de ses pièces après que le compteur a généré une réponse que beaucoup considéraient comme minimiser l’agenda raciste de Ku Klux Klan.
Meredith Broussard, professeure agrégée au Arthur L. Carter Journalism Institute de NYU, a suivi les inconvénients de la technologie, en particulier autour de la race, du sexe et d’autres biais qui sont souvent intégrés dans les outils d’IA. Dans son livre en 2023, « plus qu’un problème: confrontant la race, le sexe et les biais de capacité en technologie » (MIT Press), Broussard met en garde contre la supériorité de la technologie, en particulier dans ce qu’elle décrit comme des scénarios à haut risque, y compris ceux impliquant des décisions légales, financières ou médicales.
« Ne faisons pas défaut à la technologie quand ce n’est pas nécessaire », écrit Broussard, qui est également directeur de recherche de la NYU Alliance for Public Interest Technology. « N’y faisons pas confiance quand une telle confiance n’est pas fondée et non examinée. »
Au milieu de l’accélération de l’IA, NYU News s’est entretenu avec Broussard pour mieux comprendre ses éléments fondamentaux et pour l’utiliser à notre bénéfice – contraire.
Vous avez dit que «les systèmes d’IA discriminent par défaut». Que voulez-vous dire par là?
La façon dont les systèmes AI fonctionnent est le suivant: ils prennent tout un tas de données et font un modèle, et nous disons que le modèle est formé sur ces données. Ensuite, le modèle peut être utilisé pour prendre des prédictions, ou des décisions, ou générer de nouveaux matériaux. « Generative IA » crée de nouveaux texte, images, audio ou vidéo en fonction de ses données de formation. Le problème est que les données de formation que nous utilisons sont des données qui proviennent du monde réel. Les données de formation sont largement grattées d’Internet – ce que nous savons tous être un endroit souvent merveilleux mais souvent toxique.
Il n’y a pas de données impartiales. Il n’existe pas de données qui ne reflètent pas tous les problèmes existants du monde réel. Ainsi, les données que nous nourrissons dans les systèmes d’IA ont les mêmes biais du monde réel. Et par conséquent, le matériau que les modèles génèrent ou les décisions que les modèles AI prennent seront biaisées. Ainsi, au lieu de supposer que les décisions de l’IA sont impartiales ou neutres, il est plus utile de supposer que les décisions de l’IA seront biaisées ou discriminatoires d’une manière ou d’une autre. Ensuite, nous pouvons travailler pour empêcher l’IA de reproduire les problèmes historiques et les inégalités historiques.
Vous nous avez encouragés à «utiliser le bon outil pour la tâche». Parfois, cela peut impliquer la technologie, mais à d’autres moments non. Comment devrions-nous prendre de telles déterminations?
Une chose que j’aime garder à l’esprit est la différence entre l’équité mathématique et l’équité sociale. Quelque chose qui est divisé également mathématiquement n’est pas le même que quelque chose qui est divisé également socialement. Je donne un exemple dans mon livre d’un cookie et des enfants. Si vous avez un biscuit aux pépites de chocolat et que vous avez deux enfants, vous voulez le diviser en deux, non? Donc, mathématiquement, nous diviserions le cookie 50–50.
Mais dans le monde réel, lorsque vous cassez un cookie, il y a une grande moitié et une petite moitié, alors il y a une certaine négociation sur qui obtient la grande moitié et qui obtient la petite moitié – et vous voulez que les deux enfants sortent comme si la division est juste.
En ce qui concerne l’IA, nous devons réfléchir au contexte, surtout lorsque l’IA prend des décisions sociales, comme qui est embauché ou licencié, qui obtient un prêt ou qui obtient certains types de soins de santé. L’IA est vraiment géniale en mathématiques, mais ce n’est pas si bon en social – et le contexte social compte. Les déterminants sociaux de la santé, par exemple, affectent directement les résultats individuels et la santé de nos communautés – et ce ne sont généralement pas des facteurs que l’IA prend en considération.
Nous pouvons penser à distinguer les utilisations à haut risque et à faible risque de l’IA. Il s’agit d’une distinction faite dans la nouvelle loi sur l’IA de l’UE. Considérez la reconnaissance faciale, qui est une sorte d’IA. Une utilisation à faible risque de la reconnaissance faciale pourrait utiliser la reconnaissance faciale pour ouvrir votre téléphone, ce que je fais 500 000 fois par jour. Cela ne fonctionne que la moitié de ces fois. Ce n’est pas un gros problème. J’ai mis mon mot de passe et je continue.
Une utilisation à haut risque de la reconnaissance faciale pourrait être quelque chose comme la police utilisant la reconnaissance faciale sur les flux de surveillance vidéo en temps réel. C’est à haut risque parce que l’une des choses que nous savons sur la reconnaissance faciale est qu’elle est biaisée. C’est mieux pour détecter la peau claire que la peau foncée. C’est mieux pour identifier les hommes que les femmes. Il ne prend généralement pas en compte les gens trans et non binaires. Il est préférable de reconnaître les hommes à la peau claire et c’est le pire pour reconnaître les femmes à la peau foncée.
Ainsi, les personnes à la peau plus foncée vont être signalées de manière disproportionnée par des systèmes de reconnaissance faciale, surtout lorsqu’ils sont utilisés par la police. La reconnaissance faciale utilisée sur un flux de surveillance en temps réel serait donc une utilisation à haut risque, ce que je dirais que nous devrions interdire.
Vous avez souvent dit que le «technochauvinisme», ou la pensée que la solution technologique est supérieure à celle humaine, peut ne pas être bonne pour les affaires. Pourquoi pas?
Lorsque vous supposez que la technologie est supérieure et que les solutions technologiques sont supérieures, vous pouvez gaspiller beaucoup d’argent en mettant en œuvre des solutions de calcul qui ne fonctionnent tout simplement pas. Parfois, il est tout simplement beaucoup plus facile de faire les choses manuellement que d’essayer de faire en sorte que l’ordinateur le fasse. Par exemple, vous pouvez penser à des allers-retours sans fin sur le courrier électronique. Une règle d’or dans les affaires est que si vous avez un problème qui prend plus de deux e-mails, vous devez simplement décrocher le téléphone et avoir un appel téléphonique de cinq minutes car il est plus efficace.
Malheureusement, tout le monde ne fait pas cela. Si vous faites simplement cela sans fin en utilisant la technologie, vous n’allez pas résoudre les choses aussi efficacement. Les gens sont très enthousiastes à l’idée d’utiliser l’IA, en particulier des modèles de langues (LLM) comme Chatgpt, pour accélérer les affaires de nos jours – mais mettre les chatbots dans tout ne s’est pas encore révélé utile.
Vous et d’autres avez remarqué que l’IA rend plus vulnérable les membres déjà vulnérables de la société – par exemple, par exemple, les algorithmes d’approbation hypothécaire qui encouragent les prêts discriminatoires. Quels types de garanties pourraient inverser cet effet?
Je pense que nous devons d’abord examiner chaque technologie en termes de ce qu’elle fait et quel est le contexte social dans lequel il est utilisé parce que la technologie est un outil. Pensez à la façon dont nous sélectionnons les outils. Si je veux couper du papier, je vais utiliser des ciseaux. Si je veux couper du bois, je vais utiliser une scie à main si c’est un petit bois, mais je vais utiliser une scie circulaire si c’est un gros bois. Nous prenons ces décisions concernant la coupe des outils sans effort parce que nous avons une expertise.
Pour une raison quelconque, les gens ne voient pas les ordinateurs de la même manière. Les ordinateurs sont devenus ces objets mystérieux que les développeurs décrivent souvent comme magiques. Et cela s’est produit parce que des choses comme la science-fiction et la fantaisie sont très, très populaires parmi la communauté de développement de logiciels grand public. Bien sûr, c’est amusant de penser que vous faites de la magie ou que vous faites quelque chose d’incroyablement puissant. Mais nous devons reculer de la pensée magique en ce qui concerne l’IA et réfléchir à ce qui est réel et à ce qui est vrai – parce que la vérité compte vraiment. L’IA n’est pas magique. C’est juste des mathématiques.
Une question est: que faisons-nous de ces nouvelles technologies d’un point de vue juridique? Je suis vraiment préoccupé par la réglementation de la technologie. Les entreprises technologiques sont autorégulées depuis très longtemps, ce qu’elles ont plaidé, et elle n’a pas fonctionné. Nous sommes donc à un point où nous avons besoin de réglementation et d’application au niveau gouvernemental.
La plupart des lois que nous avons en place aux États-Unis autour de la technologie ont été mises en place lorsque le téléphone était encore la méthode dominante de communication. L’article 230 de la Communications Decence Act, par exemple, a été créé à un moment où nous n’avions pas de plateformes de médias sociaux. Nous devons donc vraiment mettre à jour nos lois sur la technologie de la même manière que nous devons itérer sur les logiciels. Le droit peut être itératif. La politique peut être itérative. Nous avons juste besoin de nous rattraper.
Existe-t-il un modèle de régulation des technologies antérieures qui peuvent être instructives?
Je pense que les ceintures de sécurité automobile en sont un bon exemple.
Auparavant, les voitures étaient fabriquées sans ceinture de sécurité. Ensuite, les défenseurs de la sécurité ont déclaré: « Nous allons obtenir moins de morts s’il est obligatoire de mettre les ceintures de sécurité dans les voitures. » Ensuite, nous avons dû avoir une législation qui disait: « Il est obligatoire de porter une ceinture de sécurité dans une voiture » parce qu’il y avait des ceintures de sécurité, mais les gens ne les portaient pas. Ce fut un changement important.
Ensuite, les chercheurs ont réalisé que la majorité des recherches sur la ceinture de sécurité étaient effectuées sur les hommes – sur des mannequins de test de collision de taille masculine – et les femmes se sont blessées par la conception des ceintures de sécurité. Nous avons donc dû affiner la conception des ceintures de sécurité. Les enfants étaient également vraiment blessés à cause de la conception de la ceinture de sécurité. Maintenant, nous avons des règles qui disent que les enfants doivent être restreints dans les sièges d’auto et qu’ils doivent être sur le siège arrière jusqu’à un certain âge.
Il y a toujours des conséquences involontaires des nouvelles technologies. La chose responsable à faire est de mettre à jour nos technologies pour les rendre plus sûres lorsque nous réalisons quels sont les problèmes. J’aimerais nous voir faire ça autour de l’IA.