L’administration Biden sollicite des commentaires sur les mesures de sécurité de l’IA
L’administration du président Joe Biden souhaite des mesures plus strictes pour tester la sécurité des outils d’intelligence artificielle tels que ChatGPT avant qu’ils ne soient rendus publics, bien qu’elle n’ait pas décidé si le gouvernement jouera un rôle dans la vérification.
Le département américain du Commerce a déclaré mardi qu’il passera les 60 prochains jours à formuler des avis sur la possibilité d’audits d’IA, d’évaluations des risques et d’autres mesures qui pourraient apaiser les inquiétudes des consommateurs concernant ces nouveaux systèmes.
« Il y a un niveau de préoccupation accru maintenant, compte tenu du rythme de l’innovation, que cela doit se faire de manière responsable », a déclaré le secrétaire adjoint au Commerce Alan Davidson, administrateur de la National Telecommunications and Information Administration.
La NTIA, plus un conseiller qu’un régulateur, cherche à obtenir des commentaires sur les politiques qui pourraient rendre les outils commerciaux d’IA plus responsables.
Biden a déclaré la semaine dernière lors d’une réunion avec son conseil de conseillers scientifiques et technologiques que les entreprises technologiques devaient s’assurer que leurs produits étaient sûrs avant de les rendre publics.
L’administration Biden a également dévoilé l’année dernière un ensemble d’objectifs de grande envergure visant à éviter les dommages causés par la montée des systèmes d’IA, mais c’était avant la sortie de ChatGPT, de la startup de San Francisco OpenAI, et des produits similaires de Microsoft et Google ont conduit à une plus grande sensibilisation aux capacités des derniers outils d’IA qui peuvent générer des passages de texte de type humain, ainsi que de nouvelles images et vidéos.
« Ces nouveaux modèles de langage, par exemple, sont vraiment puissants et ils ont le potentiel de générer de réels dommages », a déclaré Davidson dans une interview. « Nous pensons que ces mécanismes de responsabilisation pourraient vraiment aider en offrant une plus grande confiance dans l’innovation qui se produit. »
L’avis de la NTIA s’appuie fortement sur la demande de commentaires sur les mesures « d’autorégulation » que les entreprises qui développent la technologie seraient susceptibles de prendre. Cela contraste avec l’Union européenne, où les législateurs négocient ce mois-ci l’adoption de nouvelles lois qui pourraient fixer des limites strictes aux outils d’IA en fonction du risque élevé qu’ils présentent.