Pourquoi cela pourrait être faux
Le gouvernement australien a publié des normes de sécurité volontaires en matière d’intelligence artificielle (IA), ainsi qu’un document de propositions appelant à une plus grande réglementation de l’utilisation de cette technologie à croissance rapide dans les situations à haut risque.
Le message à retenir du ministre fédéral de l'Industrie et des Sciences, Ed Husic, était le suivant :
« Nous avons besoin que davantage de personnes utilisent l’IA et pour cela, nous devons instaurer la confiance. »
Mais pourquoi les gens devraient-ils faire confiance à cette technologie ? Et pourquoi davantage de gens devraient-ils l'utiliser ?
Les systèmes d'IA sont entraînés sur des ensembles de données incroyablement volumineux, à l'aide de mathématiques avancées que la plupart des gens ne comprennent pas. Ils produisent des résultats que nous n'avons aucun moyen de vérifier. Même les systèmes phares et à la pointe de la technologie produisent des résultats truffés d'erreurs.
ChatGPT semble devenir de moins en moins précis au fil du temps. Même dans ses meilleures performances, il ne peut pas vous dire quelles lettres composent le mot « fraise ». De son côté, le chatbot Gemini de Google a recommandé de mettre de la colle sur une pizza, entre autres erreurs comiques.
Compte tenu de tout cela, la méfiance du public à l’égard de l’IA semble tout à fait justifiée. Les arguments en faveur d’une utilisation accrue de l’IA semblent plutôt faibles, et potentiellement dangereux.
Les risques de l’IA
On a beaucoup parlé de la « menace existentielle » de l’IA et de la façon dont elle entraînerait des pertes d’emplois. Les dommages causés par l’IA sont très divers, des plus évidents – comme les véhicules autonomes qui heurtent des piétons – aux plus subtils, comme les systèmes de recrutement de l’IA qui font preuve de partialité à l’encontre des femmes ou les outils juridiques de l’IA qui font preuve de partialité à l’encontre des personnes de couleur.
D’autres préjudices incluent la fraude par deepfakes de collègues et de proches.
Peu importe que les récents rapports du gouvernement fédéral montrent que les humains sont plus efficaces, efficients et productifs que l’IA.
Mais si tout ce que vous avez c'est un marteau, tout ressemble à un clou.
L’adoption des nouvelles technologies relève encore de ce cliché familier. L’IA n’est pas toujours le meilleur outil pour ce travail. Mais face à une nouvelle technologie passionnante, nous l’utilisons souvent sans nous demander si nous devrions le faire.
Au lieu d’encourager davantage de personnes à utiliser l’IA, nous devrions tous apprendre ce qui constitue une bonne et une mauvaise utilisation de l’IA.
Devons-nous faire confiance à la technologie ou au gouvernement ?
Quel est l’intérêt pour le gouvernement australien de voir davantage de personnes utiliser l’IA ?
L’un des plus grands risques est la fuite de données privées. Ces outils collectent nos informations privées, notre propriété intellectuelle et nos pensées à une échelle jamais vue auparavant.
Une grande partie de ces données, dans le cas de ChatGPT, Google Gemini, Otter.ai et d’autres modèles d’IA, ne sont pas traitées sur place en Australie.
Ces entreprises prônent la transparence, la confidentialité et la sécurité. Mais il est souvent difficile de savoir si vos données sont utilisées pour former leurs nouveaux modèles, comment elles sont sécurisées ou quelles autres organisations ou gouvernements ont accès à ces données.
Récemment, le ministre fédéral des services gouvernementaux, Bill Shorten, a présenté le programme Trust Exchange proposé par le gouvernement, qui a suscité des inquiétudes quant à la collecte de données supplémentaires sur les citoyens australiens. Dans son discours au National Press Club, Shorten a ouvertement souligné le soutien de grandes entreprises technologiques, dont Google.
Si les données sur les Australiens devaient être collectées via différentes plateformes technologiques, y compris l’IA, nous pourrions assister à une surveillance de masse généralisée.
Mais ce qui est encore plus inquiétant, c’est que nous avons observé le pouvoir de la technologie à influencer la politique et le comportement.
Le biais d’automatisation est le terme que nous utilisons pour désigner la tendance des utilisateurs à croire que la technologie est « plus intelligente » qu’ils ne le sont en réalité. Une confiance excessive dans l’IA présente encore plus de risques pour les Australiens : en encourageant une utilisation accrue de la technologie sans éducation adéquate, nous risquons de soumettre notre population à un système complet de surveillance et de contrôle automatisés.
Et même si vous parvenez à échapper à ce système, cela porterait atteinte à la confiance et à la cohésion sociale et influencerait les gens à leur insu.
Ces facteurs constituent une raison supplémentaire de réglementer l’utilisation de l’IA, comme le gouvernement australien envisage de le faire. Mais cette démarche ne doit pas nécessairement s’accompagner d’une incitation énergique à l’utiliser également.
Mettons un terme à ce battage médiatique aveugle
Le sujet de la régulation de l’IA est important.
L’Organisation internationale de normalisation a établi une norme sur l’utilisation et la gestion des systèmes d’IA. Sa mise en œuvre en Australie permettrait une utilisation plus rationnelle et mieux réglementée de l’IA.
Cette norme et d’autres constituent le fondement de la norme volontaire de sécurité de l’IA proposée par le gouvernement.
Ce qui est problématique dans l’annonce faite cette semaine par le gouvernement fédéral n’est pas l’appel à une plus grande réglementation, mais le battage médiatique aveugle autour de l’utilisation de l’IA.
Concentrons-nous sur la protection des Australiens, et non sur l’obligation qu’ils ont d’utiliser l’IA et de lui faire confiance.