Le conseiller scientifique de la Maison Blanche appelle à davantage de garanties contre les risques liés à l’intelligence artificielle
Crédit : AP Illustration/Peter Hamlin
Lorsque le président Joe Biden a des questions sur l’intelligence artificielle, un expert vers lequel il se tourne est son conseiller scientifique Arati Prabhakar, directeur du Bureau de la politique scientifique et technologique de la Maison Blanche.
Prabhakar aide à guider l’approche américaine de la sauvegarde de la technologie de l’IA, en s’appuyant en partie sur la coopération de grandes entreprises technologiques américaines comme Amazon, Google, Microsoft et Meta.
L’ingénieur et physicien appliqué né en Inde et élevé au Texas aborde le problème après un travail de transition de carrière au sein du gouvernement – notamment à la tête de la branche de recherche sur les technologies avancées du ministère de la Défense – et du secteur privé en tant qu’ancien cadre et capital-risqueur de la Silicon Valley.
Elle s’est entretenue avec l’Associated Press plus tôt ce mois-ci avant un test des systèmes d’IA organisé par la Maison Blanche lors de la convention de hackers DefCon à Las Vegas. L’interview a été modifiée pour plus de longueur et de clarté.
Q : Le président vient-il vous poser des questions sur l’IA ?
A : J’ai eu le grand privilège de parler avec lui à plusieurs reprises de l’intelligence artificielle. Ce sont d’excellentes conversations parce qu’il se concentre sur la compréhension de ce que c’est et comment les gens l’utilisent. Puis immédiatement, il passe aux conséquences et aux implications profondes. Ce sont de très bonnes conversations. Très exploratoire, mais aussi très tourné vers l’action.
Q : Le chef de la majorité au Sénat, Chuck Schumer (qui fait pression pour une réglementation de l’IA), déclare que rendre les modèles d’IA explicables est une priorité. Est-ce réaliste?
R : C’est une caractéristique technique de ces systèmes d’apprentissage en profondeur et d’apprentissage automatique qu’ils sont opaques. Ils sont de nature boîte noire. Mais la plupart des risques auxquels nous sommes confrontés en tant qu’êtres humains proviennent de choses qui ne sont pas explicables. Par exemple, je prends un médicament tous les jours. Bien que je ne puisse pas prédire exactement comment il va interagir avec les cellules de mon corps, nous avons trouvé des moyens de rendre les produits pharmaceutiques suffisamment sûrs. Pensez aux médicaments avant que nous ayons des essais cliniques. Vous pourriez colporter de la poudre ou du sirop et cela pourrait vous rendre meilleur ou cela pourrait vous tuer. Mais lorsque nous avons mis en place des essais cliniques et un processus, nous avons commencé à avoir les moyens techniques d’en savoir suffisamment pour commencer à exploiter la valeur des produits pharmaceutiques. C’est le voyage que nous devons faire maintenant pour l’intelligence artificielle. Nous n’aurons pas de mesures parfaites, mais je pense que nous pouvons arriver au point où nous en savons suffisamment sur la sécurité et l’efficacité de ces systèmes pour vraiment les utiliser et pour obtenir la valeur qu’ils peuvent offrir.
Q : Quelles sont les applications d’IA spécifiques qui vous préoccupent ?
R : Certaines des choses que nous voyons sont importantes et évidentes. Si vous cassez les garde-corps d’un chatbot, ce que les gens font régulièrement, et que vous l’amenez à vous dire comment construire une arme, eh bien, c’est clairement inquiétant. Certains des méfaits sont beaucoup plus subtils. Lorsque ces systèmes sont formés à partir de données humaines, ils distillent parfois le biais qui se trouve dans ces données. Il existe maintenant une histoire assez importante et pénible de systèmes de reconnaissance faciale utilisés de manière inappropriée et conduisant à des arrestations injustifiées de Noirs. Et puis les problèmes de confidentialité. Toutes nos données qui sont disponibles dans le monde, chaque élément individuel ne révèle peut-être pas grand-chose sur nous, mais quand vous les mettez toutes ensemble, cela vous en dit plutôt beaucoup sur chacun de nous.
Q : Sept entreprises (dont Google, Microsoft et OpenAI, fabricant de ChatGPT) ont convenu en juillet de respecter les normes de sécurité volontaires en matière d’IA définies par la Maison Blanche. Certains de ces engagements ont-ils été plus difficiles à obtenir ? Où est le frottement ?
R : Je veux commencer par reconnaître à quel point nous avons de la chance que tant d’entreprises qui pilotent la technologie de l’IA aujourd’hui soient des entreprises américaines. Cela reflète une longue histoire de valorisation de l’innovation dans ce pays. C’est un énorme avantage. Nous devons également être très, très clairs sur le fait qu’avec toutes les bonnes intentions du monde, les réalités de l’exploitation sur le marché sont, par définition, une contrainte sur jusqu’où ces entreprises individuelles peuvent aller. Nous espérons que beaucoup d’autres se joindront à eux et que les engagements volontaires se développeront. Nous devons juste être clairs, ce n’est qu’une partie de cela. Ce sont des entreprises qui prennent leurs responsabilités. Mais nous, au gouvernement, devons intensifier les nôtres, tant au niveau de l’exécutif que du législatif.
Q : Avez-vous un calendrier pour les actions futures (comme un décret exécutif Biden prévu) ? Comprendra-t-il des mesures de responsabilité exécutoires pour les développeurs d’IA ?
R : De nombreuses mesures sont à l’étude. Je n’ai pas de chronologie pour vous. Je dirai simplement rapide. Et cela vient directement du sommet. Le président a clairement indiqué qu’il s’agissait d’une question urgente.
