À quel point l'IA est-elle digne de confiance?
L'intelligence artificielle est partout – écrire des e-mails, recommander des films et même conduire des voitures – mais qu'en est-il de l'IA que vous ne voyez pas? Qui (ou quoi) se trouve-t-il dans les coulisses qui développent les algorithmes qui passent inaperçus? Et peut-il faire confiance?
Nous avons parlé avec deux experts de l'UC San Diego du Halıcıoğlu Data Science Institute, qui fait partie de l'École d'informatique, d'information et de sciences des données (SCID). Nous avons demandé aux deux experts quelle est la prochaine étape pour l'IA, y compris ses défis, ses opportunités et ses limitations naturelles.
David Danks, MA '99, Ph.D. '01, professeur de science des données, de philosophie et de politique, examine non seulement la façon dont les systèmes d'IA sont construits, mais comment ils façonnent la société. Lily Weng, professeur adjoint, dirige le laboratoire de confiance de l'apprentissage automatique, qui garantit que les systèmes d'IA sont robustes, fiables, explicables et dignes de notre confiance.
Comment définissez-vous l'IA à son niveau le plus fondamental?
Danks: L'IA est tout système qui remplace, améliore ou augmente le travail cognitif humain. Tout comme les machines ont remplacé le travail physique, l'IA assiste ou améliore nos tâches de réflexion. Alors que d'autres peuvent se concentrer sur les aspects techniques, je souligne une vision centrée sur l'homme – ce qui nous permet de faire.
Weng: Vous pouvez le considérer comme un système qui fonctionne différemment des humains mais est conçu dans le but de nous aider. Bien que la rendez-vous plus intelligente ou plus efficace fasse partie du processus, son objectif est de bénéficier à l'humanité.
Comme plus de gens adoptent l'IA dans leur vie quotidienne, que trouvez-vous le plus surprenant?
Danks: Pour moi, c'est la volonté des gens d'expérimenter et de jouer avec ces systèmes. Les gens semblent très disposés à passer leur temps et leur énergie à essayer les systèmes. Pourtant, l'expérimentation ne se traduit pas souvent par une utilisation continue ou en faisant confiance au système. Et c'est important parce que nous ne devrions probablement pas faire confiance à beaucoup de ces systèmes pour le moment. Cela m'a surpris que dans une société où tant de gens agissent comme s'ils étaient très opposés à la technologie et n'aiment pas la technologie, ils sont néanmoins très disposés à expérimenter et à interagir avec les systèmes d'IA, du moins lorsque les enjeux sont faibles.
Où s'intègre «Ai» responsable?
Weng: Nous voulons que l'IA soit responsable et fiable par les utilisateurs et les développeurs. Par exemple, vous voulez que l'IA vous dise ce qu'elle fait et comment elle prend une décision. Ensuite, nous pouvons surveiller ou auditer s'il y a des biais ou des préoccupations potentielles lorsqu'elle atteint les décisions. Nous voulons également que l'IA soit robuste – vous ne voulez pas qu'elle soit sensible au bruit extérieur ou à un adversaire qui essaie de le manipuler. Nous voulons que l'IA suive certains principes que nous nous attendons à ce qu'il ait.
Le domaine de l'IA change si rapidement; À quoi devrions-nous penser? À quoi pensez-vous?
Weng: Un problème sur lequel mon laboratoire s'est concentré est l'opacité de l'IA. Par exemple, l'architecture d'un système basé sur l'apprentissage en profondeur est très compliquée. Ainsi, bien qu'il ait été testé et fonctionne bien, il existe de nombreux scénarios qui peuvent se produire et de nombreuses erreurs inattendues. Mon laboratoire travaille pour s'assurer qu'un système d'IA est interprétable, et si ce n'est pas le cas, comment nous pouvons le rendre plus explicable.
Danks: Je passe pas mal de temps à réfléchir à toutes les utilisations de l'IA qui ne sont pas évidentes. Quand je vais à Chatgpt, je sais que j'utilise l'IA. Mais quand je conduis ma voiture – ce qui ces jours-ci est comme un ordinateur sur roues – je ne sais pas combien d'IA a été mise là par le constructeur automobile. Je ne sais pas dans quelle mesure ils utilisent l'IA pour contrôler le moteur ou à des fins de surveillance – peut-être qu'ils vendent mes données à une compagnie d'assurance.
Donc, même si c'est génial lorsque l'IA peut se produire dans les coulisses et améliorer tout, cela augmente également des risques supplémentaires où nous n'aurons pas le recours approprié, en particulier si nous ne savons même pas qu'un préjudice s'est produit. Nous avons besoin de transparence quant à savoir si l'IA est utilisé, et nous avons besoin de transparence sur ce que fait l'IA lorsqu'il est utilisé.
Comment la nouvelle école de l'UC San Diego, SCID, abordera-t-elle certains des problèmes et des questions que vous avez présentés?
Danks: Je pense que l'école crée d'énormes opportunités pour nous en tant que chercheurs et éducateurs, car il commence à décomposer les silos entre la recherche fondamentale et expérimentale qui se produit au Halıcıoğlu Data Science Institute et aux déploiements de logiciels de niveau commercial de niveau d'entreprise qui sont possibles via le San Diego Supercomputer Center.
Je pense que l'école a la possibilité de voir des recherches aller du laboratoire à l'impact commercial et sociétal. Et cela crée non seulement des opportunités, mais aussi de nouvelles obligations pour nous de le faire de manière responsable et éthique et de montrer que l'IA responsable n'est pas un oxymore.
Qu'est-ce que l'IA ne pourrait jamais remplacer?
Danks: Toutes les tâches d'emploi qui nécessitent une sorte de lien émotionnel ou empathique avec un autre être humain seront très difficiles. Les systèmes d'IA peuvent simuler une connexion empathique, mais la construction de cette connexion à long terme est quelque chose avec laquelle les systèmes auront beaucoup de mal.
Un autre domaine où les systèmes d'IA continueront de lutter est de traiter les situations où il n'est pas entièrement clair ce que signifie le succès. Ces systèmes sont conçus pour optimiser des solutions aux problèmes où nous savons ce qu'est le succès, mais il y a des moments où nous ne savons pas ce qui compte réellement comme un succès, et nous le comprenons en embrouillant nos vies.
Qu'est-ce qui est passionnant pour vous dans l'avenir de l'IA?
Weng: Je suis très excité par le potentiel de l'IA dans les soins de santé. Par exemple, comment pouvons-nous fournir une meilleure qualité de soins de santé avec l'aide de l'IA? Mais un goulot d'étranglement majeur est la fiabilité, car les applications de soins de santé comportent des risques beaucoup plus élevés et nécessitent des mesures de sécurité strictes. Ils ont une norme beaucoup plus élevée que, par exemple, un chatbot ou les outils que nous utilisons quotidiennement.
C'est pourquoi un diagnostic digne de confiance devient très important, surtout en ce qui concerne l'interprétabilité – nous devons nous assurer que les décisions axées sur l'IA sont transparentes et fiables. Je suis enthousiasmé par la recherche dans mon laboratoire et le travail de mes collègues HDSI alors que nous nous efforçons de développer des systèmes d'IA auxquels les gens peuvent avoir confiance.
Des réflexions finales sur l'IA pour nos lecteurs?
Danks: Il y a parfois une tentation de considérer l'IA comme un ouragan qui ne fait que nous en résulter: cela va transformer nos vies, peut-être même détruire nos vies, et nous ne pouvons rien y faire. Mais je pense que c'est la mauvaise façon de penser à la technologie parce que l'IA est construite par nous. L'IA est un avenir que nous construisons en ce moment. Nous devons le considérer comme une opportunité plutôt que quelque chose, nous n'avons aucune idée si nous allons passer.
