Voici pourquoi le public doit remettre en question le mythe du «bon IA» poussé par les entreprises technologiques
Bien qu'il y ait eu beaucoup de discussions négatives sur l'IA, y compris sur la possibilité qu'elle prenne le contrôle du monde, le public est également bombardé de messages positifs sur la technologie et ce qu'il peut faire.
Ce mythe « bon IA » est un outil clé utilisé par les entreprises technologiques pour promouvoir leurs produits. Pourtant, il existe des preuves que les consommateurs se méfient de la présence de l'IA dans certains produits. Cela signifie que la promotion positive de l'IA peut exercer une pression indésirable sur les gens pour accepter l'utilisation de l'IA dans leur vie.
L'IA devient si omniprésente que les gens peuvent perdre leur capacité à dire non à l'utiliser. C'est dans les smartphones, les téléviseurs intelligents, les haut-parleurs intelligents comme Alexa et les assistants virtuels comme Siri. On nous dit constamment que notre vie privée sera protégée. Mais avec la nature personnelle des données auxquelles l'IA a accès dans ces appareils, pouvons-nous nous permettre de faire confiance à de telles assurances?
Certains politiciens propagent également la promesse de « bonne IA » avec une immense conviction, reflétant les messages provenant des entreprises technologiques.
Mes recherches actuelles sont en partie expliquées dans un nouveau livre intitulé The Myth of Good IA. Cette recherche montre que les données alimentant nos systèmes d'IA sont biaisées, car elle suréprésente souvent les sections privilégiées de la population et les attitudes traditionnelles.
Cela signifie que tous les produits d'IA qui n'incluent pas les données de personnes marginalisées ou de minorités pourraient les faire discriminer. Cela explique pourquoi les systèmes d'IA continuent d'être criblés de racisme, d'âgisme et de diverses formes de discrimination fondée sur le sexe, par exemple.
La vitesse à laquelle cette technologie emporte notre vie quotidienne rend très difficile d'évaluer correctement les conséquences. Et une approche de l'IA qui est plus critique envers son fonctionnement ne fait pas un bon marketing pour les entreprises technologiques.
Structures de pouvoir
Les idées positives sur l'IA et ses capacités dominent actuellement tous les aspects de l'innovation de l'IA. Ceci est en partie déterminé par les intérêts de l'État et par les marges bénéficiaires des sociétés technologiques.
Ceux-ci sont liés aux structures de pouvoir maintenues par des multipliés technologiques et, à certains endroits, leur influence sur les gouvernements. La relation entre Donald Trump et Elon Musk, malgré sa récente aigre, en est une manifestation vivante.
Et donc, le public est à la fin d'un système de haut en bas de manière nettement hiérarchique, des grandes entreprises technologiques et de leurs catalyseurs gouvernementaux aux utilisateurs. De cette façon, nous sommes obligés de consommer, avec peu ou pas d'influence sur la façon dont la technologie est utilisée. Cette idéologie positive de l'IA concerne donc principalement l'argent et le pouvoir.
En l'état, il n'y a pas de mouvement mondial avec un manifeste unificateur qui réunirait les sociétés pour tirer parti de l'IA au profit des communautés de personnes ou pour protéger notre droit à la vie privée. Ce « droit d'être laissé seul », codifié dans la Constitution américaine et le droit international des droits de l'homme, est un pilier central de mon argument. C'est aussi quelque chose qui est presque entièrement absent des assurances de l'IA faite par les grandes entreprises technologiques.
Pourtant, certains des risques de la technologie sont déjà évidents. Une base de données compilant des cas dans lesquels les avocats du monde entier ont utilisé l'IA, ont identifié 157 cas dans lesquels de fausses informations générées par l'AI – des hallucinations aussi calculées – ont inscrit les décisions juridiques.
Certaines formes d'IA peuvent également être manipulées pour faire chanter et extorquer, ou créer des plans pour le meurtre et le terrorisme.
Les entreprises technologiques doivent programmer les algorithmes avec des données qui représentent tout le monde, pas seulement les privilégiés, afin de réduire la discrimination. De cette façon, le public n'est pas obligé de donner au consensus selon lequel l'IA résoudra bon nombre de nos problèmes, sans supervision appropriée par la société. Cette distinction entre la capacité de penser de manière créative, éthique et intuitivement peut être la ligne de faille la plus fondamentale entre l'homme et la machine.
C'est aux gens ordinaires de remettre en question le bon mythe de l'IA. Une approche critique de l'IA devrait contribuer à la création d'une technologie plus pertinente et responsable socialement, une technologie qui est déjà testée dans des scénarios de torture, comme le montre le livre.
Le moment où les systèmes d'IA nous surpasseraient dans chaque tâche devraient être à environ une décennie. En attendant, il doit y avoir une résistance à cette attaque contre notre droit à la vie privée, et plus de sensibilisation à la façon dont l'IA fonctionne.
