Oubliez les scénarios dystopiques : l’IA est omniprésente aujourd’hui et les risques sont souvent cachés
Les troubles chez OpenAI, fabricant de ChatGPT, déclenchés par le licenciement du PDG de haut niveau Sam Altman par le conseil d’administration le 17 novembre 2023, ont mis en lumière la sécurité de l’intelligence artificielle et les inquiétudes concernant le développement rapide de l’intelligence artificielle générale, ou AGI. L’AGI est vaguement définie comme une intelligence au niveau humain couvrant une gamme de tâches.
Le conseil d’administration d’OpenAI a déclaré que le licenciement d’Altman était dû à un manque de franchise, mais les spéculations se sont concentrées sur un désaccord entre Altman et les membres du conseil d’administration concernant la croissance remarquable d’OpenAI – des produits tels que ChatGPT et Dall-E ont acquis des centaines de millions d’utilisateurs dans le monde. — a entravé la capacité de l’entreprise à se concentrer sur les risques catastrophiques posés par AGI.
L’objectif d’OpenAI de développer l’AGI est devenu étroitement lié à l’idée de l’IA acquérant des capacités superintelligentes et à la nécessité de se prémunir contre une technologie mal utilisée ou devenant malveillante. Mais pour l’instant, l’AGI et les risques qui en découlent sont spéculatifs. Les formes d’IA spécifiques à des tâches, quant à elles, sont bien réelles, se sont répandues et passent souvent inaperçues.
En tant que chercheur en systèmes d’information et en IA responsable, j’étudie le fonctionnement de ces algorithmes du quotidien et la manière dont ils peuvent nuire aux personnes.
L’IA est omniprésente
L’IA joue un rôle visible dans la vie quotidienne de nombreuses personnes, de la reconnaissance faciale qui déverrouille votre téléphone à la reconnaissance vocale qui alimente votre assistant numérique. Il joue également des rôles dont vous êtes peut-être vaguement conscient : par exemple, façonner vos sessions de médias sociaux et d’achats en ligne, guider vos choix de visionnage de vidéos et vous mettre en contact avec un chauffeur dans un service de covoiturage.
L’IA affecte également votre vie d’une manière qui pourrait complètement vous échapper. Si vous postulez à un emploi, de nombreux employeurs utilisent l’IA dans le processus d’embauche. Vos patrons l’utilisent peut-être pour identifier les employés susceptibles de démissionner. Si vous demandez un prêt, il y a de fortes chances que votre banque utilise l’IA pour décider si elle l’accorde. Si vous êtes traité pour un problème de santé, vos prestataires de soins de santé peuvent l’utiliser pour évaluer vos images médicales. Et si vous connaissez quelqu’un aux prises avec le système de justice pénale, l’IA pourrait bien jouer un rôle dans la détermination du cours de sa vie.
Dommages algorithmiques
De nombreux systèmes d’IA qui passent inaperçus présentent des biais qui peuvent causer des dommages. Par exemple, les méthodes d’apprentissage automatique utilisent une logique inductive, qui commence par un ensemble de prémisses pour généraliser les modèles à partir des données d’entraînement. Un outil de sélection de CV basé sur l’apprentissage automatique s’est avéré biaisé à l’encontre des femmes, car les données de formation reflétaient des pratiques antérieures où la plupart des CV étaient soumis par des hommes.
L’utilisation de méthodes prédictives dans des domaines allant des soins de santé à la protection de l’enfance pourrait présenter des biais tels que des biais de cohorte qui conduisent à des évaluations de risque inégales entre différents groupes de la société. Même lorsque les pratiques juridiques interdisent la discrimination fondée sur des attributs tels que la race et le sexe (par exemple dans le domaine des prêts à la consommation), la discrimination par procuration peut toujours se produire. Cela se produit lorsque les modèles algorithmiques de prise de décision n’utilisent pas des caractéristiques légalement protégées, comme la race, mais utilisent plutôt des caractéristiques qui sont fortement corrélées ou liées à la caractéristique légalement protégée, comme le quartier. Des études ont montré que les emprunteurs noirs et latinos à risque équivalent paient des taux d’intérêt nettement plus élevés sur les prêts titrisés par les entreprises parrainées par le gouvernement et assurés par la Federal Housing Authority que les emprunteurs blancs.
Une autre forme de biais se produit lorsque les décideurs utilisent un algorithme différemment de ce que voulaient les concepteurs de l’algorithme. Dans un exemple bien connu, un réseau neuronal a appris à associer l’asthme à un risque plus faible de décès par pneumonie. En effet, les asthmatiques atteints de pneumonie reçoivent traditionnellement un traitement plus agressif qui réduit leur risque de mortalité par rapport à la population globale. Cependant, si les résultats d’un tel réseau neuronal étaient utilisés dans l’attribution des lits d’hôpitaux, les personnes asthmatiques admises pour une pneumonie seraient dangereusement dévalorisées.
Les biais des algorithmes peuvent également résulter de boucles de rétroaction sociétales complexes. Par exemple, lorsqu’elles prédisent la récidive, les autorités tentent de prédire quelles personnes reconnues coupables de crimes sont susceptibles de commettre à nouveau des crimes. Mais les données utilisées pour former les algorithmes prédictifs concernent en réalité les personnes susceptibles d’être de nouveau arrêtées.
La sécurité de l’IA ici et maintenant
Le récent décret de l’administration Biden et les efforts d’application des agences fédérales telles que la Federal Trade Commission sont les premières étapes vers la reconnaissance et la protection contre les dommages algorithmiques.
Et bien que les grands modèles de langage, tels que GPT-3 qui alimente ChatGPT, et les grands modèles de langage multimodaux, tels que GPT-4, soient des étapes sur la voie de l’intelligence artificielle générale, ce sont également des algorithmes que les gens utilisent de plus en plus à l’école, au travail et dans d’autres domaines. la vie quotidienne. Il est important de considérer les biais résultant de l’utilisation généralisée de grands modèles linguistiques.
Par exemple, ces modèles pourraient présenter des biais résultant de stéréotypes négatifs concernant le genre, la race ou la religion, ainsi que des biais dans la représentation des minorités et des personnes handicapées. Étant donné que ces modèles démontrent la capacité de surpasser les humains à des tests tels que l’examen du barreau, je pense qu’ils nécessitent un examen plus approfondi pour garantir que le travail augmenté par l’IA est conforme aux normes de transparence, d’exactitude et de crédit à la source, et que les parties prenantes ont le pouvoir de faire respecter les normes. de telles normes.
En fin de compte, la question de savoir qui gagne et perdant dans le déploiement à grande échelle de l’IA n’est peut-être pas une question de superintelligence malveillante, mais plutôt une question de compréhension des personnes vulnérables lorsque la prise de décision algorithmique est omniprésente.
