Q&R : Peut-on faire confiance à l'IA ?

Q&R : Peut-on faire confiance à l’IA ?

Rama Chellappa. Crédit : Will Kirk / Université Johns Hopkins

Dans le domaine de l’intelligence artificielle, il y a des hivers et il y a des printemps – des périodes stériles suivies de poussées exaltantes d’innovation et de financement. À l’heure actuelle, nous nous trouvons définitivement au milieu d’un printemps d’IA, déclare Rama Chellappa, ingénieur de Johns Hopkins, vétéran de l’industrie depuis plus de quatre décennies.

« L’IA a cette vie folle où elle passe par des cycles », explique Chellappa, professeur émérite Bloomberg en génie électrique, informatique et biomédical. « Certains des algorithmes que nous utilisons aujourd’hui existent depuis les années 1960, mais ce qui se passe maintenant est dû à l’explosion des données dont nous disposons pour piloter nos systèmes. »

Chellappa dit qu’il respecte toutes les appréhensions entourant l’IA – les problèmes de confidentialité et de piratage, les dilemmes éthiques, les preuves flagrantes de ses préjugés et, bien sûr, « le scénario hollywoodien des robots qui arrivent et nous tuent tous », dit-il en riant.

La raison pour laquelle il a écrit son livre, « Can We Trust AI? » avec le co-auteur Eric Niller, dit-il, était de relever ces défis tout en soulignant le « net positif » global qu’il pense que l’IA peut apporter à la société humaine. « Cette technologie ne devrait que nous aider à nous améliorer et à améliorer notre qualité de vie », dit-il.

Publié par JHU Press en novembre 2022, le livre parcourt le domaine de l’IA depuis ses origines après la Seconde Guerre mondiale en passant par la révolution informatique des années 1960 et 1970 jusqu’à notre actuel « printemps de l’IA », alors que le marché mondial des entreprises d’IA devrait atteindre 228 milliards de dollars d’ici 2026. Chellappa raconte ses propres expériences des débuts de l’apprentissage automatique et de la vision par ordinateur, partage les connaissances de ses collègues experts et envisage des utilisations prometteuses dans la médecine, les voitures autonomes et la sécurité publique, entre autres domaines.

Fraîchement élu à la National Academy of Engineering, Chellappa, qui est affilié au Center for Imaging Science, au Center for Language and Speech Processing, à l’Institute for Assured Autonomy et à l’Institut mathématique pour la science des données, s’est récemment entretenu avec le Hub de son livre, son travail actuel sur l’IA et ce qu’il pense d’Alexa.

Dans votre livre, vous dites que l’IA en est actuellement à la « phase des tout-petits ». Que veux-tu dire par là?

Bien sûr, dans de nombreuses applications, l’IA peut aller plus loin qu’un tout-petit, mais je fais référence à ses capacités de raisonnement. Fait intéressant, l’IA dans ses premières années était guidée par la connaissance du domaine et les capacités d’inférence. Les conceptions actuelles de l’IA, qui reposent principalement sur les « mégadonnées », semblent avoir compromis le raisonnement et la connaissance du domaine nécessaires à la prise de décisions.

Il faut un certain temps aux humains pour développer un raisonnement de bon sens, n’est-ce pas ? Vous apprenez de l’expérience. Les enfants de deux ans apprennent à partir d’exemples – vous leur montrez à quoi ressemble une tasse, ils peuvent identifier d’autres tasses. L’IA peut le faire mais aura besoin de beaucoup plus de données. Si vous demandez à un enfant de deux ans où se trouve la tasse et que vous mettez une serviette dessus, l’enfant tirera probablement la serviette et dira : « La voilà ! L’IA ne le fait pas nécessairement avec la même efficacité pour le moment. Les tout-petits peuvent aussi imaginer, faire des inférences et des comparaisons. Alors que les modèles d’IA générative sont capables de synthétiser de nouvelles images, vidéos, textes et langages, les humains sont bien meilleurs pour imaginer des scénarios « et si ».

Les systèmes d’IA deviennent cependant plus intelligents, avec ce que nous appelons l’apprentissage auto-supervisé, et ils apprennent à établir ce type de connexions.

Comment utilisez-vous l’IA dans votre vie quotidienne ? Par exemple, utilisez-vous Alexa ?

Je pense que ces appareils sont intéressants, mais je peux vraiment trouver toutes les informations dont j’ai besoin sur le Web. Un de mes anciens élèves m’a donné un Google Home et j’ai en quelque sorte joué avec, en jouant de la musique et tout ça. Mon fils a Alexa et nous lui posons des questions.

Mais en termes d’IA que j’utilise réellement, ce sont les systèmes qui sont maintenant intégrés naturellement dans toutes nos expériences Web et smartphone. Par exemple, lorsque vous achetez un livre sur Amazon et qu’il recommande des livres similaires que vous pourriez aimer, ou lorsque vous regardez trois films du même genre sur Netflix et qu’il reprend le modèle. La carte Google que j’utilise tout le temps est basée sur un algorithme de recherche IA classique. Certaines personnes se méfient de ce genre de choses, disant : « Oh, non, ça me traque et me contrôle », mais ce ne sont en réalité que des suggestions. Ils ne vous obligent pas à regarder quelque chose ou à sortir votre carte de crédit.

Sur quel type de projets d’IA vous et votre équipe travaillez-vous actuellement chez Hopkins ?

Nous abordons l’IA sous de nombreux angles différents. Nous travaillons sur la protection de l’IA contre les attaques adverses. Nous concevons des algorithmes qui garantiront la réduction des biais. Nous travaillons sur des applications basées sur l’IA pour diverses facettes de la médecine, en interagissant avec le Centre pour l’autisme et une unité de cancérologie, par exemple, et en travaillant sur des problèmes liés à la pathologie, au vieillissement en bonne santé et aux soins oculaires.

Nous examinons également certains problèmes traditionnels de vision par ordinateur, en faisant en sorte que la reconnaissance faciale ou la reconnaissance humaine fonctionne jusqu’à mille mètres. Et il n’y a pas que les visages, nous cherchons à améliorer la reconnaissance du corps et de la démarche, comme la façon dont les gens marchent.

Un autre nouveau projet dans lequel je serai impliqué consiste à modéliser divers sites du monde et à les visualiser à différents moments de la journée ou à différentes saisons, ce qui pourrait être utile pour des missions de sauvetage ou des choses de cette nature.

En collaboration avec le Laboratoire de physique appliquée, nous explorons l’efficacité des données synthétiques (des données générées artificiellement qui imitent des scénarios du monde réel) dans la conception de systèmes d’IA. Les données synthétiques n’ont pas besoin d’être annotées au fur et à mesure que nous les générons, et cela réduit considérablement les problèmes de confidentialité. Plus important encore, cela permettra à l’IA de mieux imaginer et de bien généraliser à de nouveaux environnements et situations. Comme j’aime à le dire, les capteurs ne peuvent capturer que ce qui s’est passé ; les données synthétiques peuvent refléter des scénarios « et si », conduisant à des systèmes d’IA généralisables. En tant que praticien de longue date des approches génératives de la vision par ordinateur, je suis ravi de cette possibilité. Cependant, nous ne pouvons pas laisser aller cette imagination et affecter l’intégrité de nos systèmes d’IA.

Pouvez-vous en dire plus sur la façon dont l’IA peut aider à vieillir ? Je sais que vous faites partie du AI & Tech Collaboratory for Aging Research à Hopkins.

Ce groupe est financé par le National Institute on Aging, réunissant des expertises cliniques et d’ingénierie. Le principe de base est de mettre des dispositifs et des systèmes d’IA utiles entre les mains des personnes âgées et de leurs soignants, afin d’améliorer la qualité de vie, la sécurité et la longévité. Par exemple, nous envisageons des robots qui pourraient interagir avec des patients atteints de troubles cognitifs, de démence ou d’Alzheimer et les aider à vaquer à leurs occupations quotidiennes. Nous envisageons d’utiliser Alexa pour administrer des tests cognitifs à la maison et d’utiliser Apple Watch pour fournir des alertes en cas de chute ou d’errance.

C’est l’une des principales raisons pour lesquelles je suis venu à Hopkins, avec l’idée d’explorer l’IA et l’apprentissage automatique pour la médecine, et je suis vraiment enthousiasmé par les collaborations en cours.

Depuis la sortie de votre livre, nous avons assisté à l’explosion de ChatGPT. Que pensez-vous du battage médiatique autour de cela et où voyez-vous cette direction technologique?

ChatGPT est le dernier développement de ce que l’on appelle les grands modèles de langage. Bien que ChatGPT marque une étape importante, nous devons faire attention à la façon dont il est utilisé. Il existe maintenant de nombreux exemples de la façon dont ChatGPT invente des trucs ! C’est inquiétant. J’espère qu’avec plus d’entraînement, nous verrons une amélioration.

Pourquoi croyez-vous, comme vous le dites dans votre livre, que l’IA aura un impact net positif sur la société ?

En tant qu’êtres humains, nous devons prendre de nombreuses décisions et l’IA peut aider à alléger la charge.

Permettez-moi de donner un exemple tiré de la médecine. Nous atteindrons un point où l’IA pourra examiner de manière exhaustive tous nos dossiers de santé électroniques et images de diagnostic, tous les médicaments que nous avons pris, et pourra même traiter nos conversations patient-médecin. Et cela créera un profil très personnalisé qui peut nous aider à surveiller notre santé, à alerter les médecins de nos besoins individuels et à prévoir tout problème potentiel à l’avenir.

Regardons les voitures autonomes. La voiture entièrement automatisée est considérée comme l’objectif ultime, et nous n’y parvenons pas, mais en attendant, nous développons de nombreuses fonctionnalités différentes pour nous aider : des caméras nous montrant ce qui se trouve derrière nous lorsque nous reculons, des alertes de voitures dans les voies adjacentes, etc. Ces caractéristiques entraîneront à terme moins d’accidents et moins de décès.

Je pense donc que l’IA peut être une sorte d’ami à vos côtés, et c’est à nous de déterminer l’aide dont nous avons besoin. Vous savez, parfois nos amis dans la vraie vie ne se comportent pas bien. L’IA peut également faire des erreurs – c’est un algorithme et ne peut faire que ce que nous lui avons appris à faire.

Cette idée que l’IA peut se déchaîner et devenir un monstre ou un terminateur, c’est surtout des trucs hollywoodiens, mais je connais aussi des gens sérieux en IA qui trouvent également ce type de scénario crédible. Personnellement, avec les technologies que nous connaissons actuellement, je ne vois rien de tel se produire.

Donc, pour répondre à la question posée par votre titre, « Pouvons-nous faire confiance à l’IA ? », votre réponse est :

C’est oui. (rires) C’est un oui mitigé.

J’aime dire, ne parlons pas des humains contre l’IA. Parlons des humains et de l’IA. Nous pouvons identifier les problèmes et travailler pour les améliorer. Nous pouvons faire en sorte que l’IA travaille pour nous et avec nous.

Fourni par l’Université Johns Hopkins