Le logiciel 'Glaze' vise à protéger l'art de l'imitation de l'IA

Comment les nouvelles « barrières de sécurité » australiennes en matière d’IA peuvent assainir le marché chaotique de l’intelligence artificielle

Le gouvernement fédéral australien a lancé aujourd'hui un ensemble de mesures de protection obligatoires pour l'IA à haut risque, ainsi qu'une norme de sécurité volontaire pour les organisations utilisant l'IA.

Chacun de ces documents propose dix garde-fous qui se renforcent mutuellement et définissent des attentes claires pour les organisations tout au long de la chaîne d’approvisionnement de l’IA. Ils sont pertinents pour toutes les organisations qui utilisent l’IA, y compris les systèmes internes visant à accroître l’efficacité des employés et les systèmes orientés vers l’extérieur tels que les chatbots.

La plupart des garde-fous concernent des aspects tels que la responsabilité, la transparence, la tenue de registres et la garantie que les humains supervisent les systèmes d'IA de manière significative. Ils sont alignés sur les normes internationales émergentes telles que la norme ISO pour la gestion de l'IA et la loi sur l'IA de l'Union européenne.

Les propositions d’exigences obligatoires pour l’IA à haut risque, qui sont ouvertes aux soumissions publiques le mois prochain, reconnaissent que les systèmes d’IA sont particuliers dans la mesure où ils limitent la capacité des lois existantes à prévenir ou atténuer efficacement un large éventail de préjudices pour les Australiens. Bien que la définition précise de ce qui constitue un environnement à haut risque soit un élément essentiel de la consultation, l’approche fondée sur des principes proposée engloberait probablement tous les systèmes qui ont un effet juridique. Les exemples pourraient inclure les systèmes de recrutement d’IA, les systèmes qui peuvent limiter les droits de l’homme (y compris certains systèmes de reconnaissance faciale) et tout système qui peut causer des dommages physiques, comme les véhicules autonomes.

Des garde-fous bien conçus amélioreront la technologie et amélioreront notre sort à tous. Sur ce plan, le gouvernement devrait accélérer les efforts de réforme législative pour clarifier les règles existantes et améliorer à la fois la transparence et la responsabilité sur le marché. En même temps, nous n’avons pas besoin d’attendre que le gouvernement agisse.

Le marché de l’IA est un désastre

Dans l'état actuel des choses, le marché des produits et services d'IA est un véritable désastre. Le problème principal est que les gens ne savent pas comment fonctionnent les systèmes d'IA, quand ils les utilisent et si les résultats les aident ou les pénalisent.

Prenons par exemple une entreprise qui m’a récemment demandé conseil sur un service d’IA générative dont le coût est estimé à plusieurs centaines de milliers de dollars par an. Elle craignait de se faire distancer par ses concurrents et d’avoir du mal à choisir entre plusieurs fournisseurs.

Pourtant, au cours des 15 premières minutes de discussion, l’entreprise a révélé qu’elle ne disposait d’aucune information fiable sur les avantages potentiels pour l’entreprise et qu’elle n’avait aucune connaissance de l’utilisation existante de l’IA générative par ses équipes.

Il est important que nous fassions bien les choses. Si l’on en croit ne serait-ce qu’une fraction du battage médiatique, l’IA représente une énorme opportunité pour l’Australie. Les estimations citées par le gouvernement fédéral suggèrent que l’augmentation économique due à l’IA et à l’automatisation pourrait atteindre 600 milliards de dollars australiens par an d’ici 2030. Cela porterait notre PIB à 25 % au-dessus des niveaux de 2023.

Mais tout cela est en danger. Les taux d’échec alarmants des projets d’IA (plus de 80 % selon certaines estimations), les déploiements inconsidérés, le faible niveau de confiance des citoyens et la perspective de milliers de crises de type Robodebt dans l’industrie et le gouvernement en sont la preuve.

Le problème de l'asymétrie d'information

Le manque de compétences et d’expérience des décideurs est sans aucun doute l’un des problèmes. Mais le rythme rapide de l’innovation dans le domaine de l’IA accentue un autre défi : l’asymétrie de l’information.

L'asymétrie d'information est un concept économique simple, récompensé par un prix Nobel, qui a de graves conséquences pour tout le monde. Et c'est un défi particulièrement pernicieux lorsqu'il s'agit d'IA.

Lorsque les acheteurs et les vendeurs ont des connaissances inégales sur un produit ou un service, cela ne signifie pas seulement que l'une des parties gagne au détriment de l'autre. Cela peut conduire à ce que des produits de mauvaise qualité dominent le marché, voire à ce que le marché échoue complètement.

L’IA crée de nombreuses asymétries d’information. Les modèles d’IA sont techniques et complexes, ils sont souvent intégrés et cachés dans d’autres systèmes, et ils sont de plus en plus utilisés pour prendre des décisions importantes.

La recherche d’un équilibre entre ces asymétries devrait nous préoccuper tous. Les conseils d’administration, les dirigeants et les actionnaires souhaitent que les investissements dans l’IA soient rentables. Les consommateurs veulent des systèmes qui fonctionnent dans leur intérêt. Et nous voulons tous profiter des avantages de l’expansion économique tout en évitant les dommages bien réels que les systèmes d’IA peuvent infliger s’ils échouent, s’ils sont utilisés de manière malveillante ou déployés de manière inappropriée.

À court terme, du moins, les entreprises qui vendent des systèmes d’IA tirent un réel avantage de la restriction des informations afin de pouvoir conclure des affaires avec des contreparties naïves. Pour résoudre ce problème, il faudra plus qu’une simple amélioration des compétences. Il faudra utiliser une gamme d’outils et d’incitations pour recueillir et partager des informations précises, actuelles et importantes sur les systèmes d’IA.

Ce que les entreprises peuvent faire aujourd’hui

Il est désormais temps d'agir. Les entreprises de toute l'Australie peuvent adopter la norme volontaire de sécurité de l'IA (ou la version de l'Organisation internationale de normalisation) et commencer à recueillir et à documenter les informations dont elles ont besoin pour prendre de meilleures décisions concernant l'IA dès aujourd'hui.

Cela sera utile de deux manières. Tout d’abord, cela aidera les entreprises à adopter une approche structurée pour comprendre et gérer leur propre utilisation des systèmes d’IA, à poser des questions utiles à leurs partenaires technologiques (et à exiger des réponses de leur part) et à signaler au marché que leur utilisation de l’IA est digne de confiance.

Deuxièmement, à mesure que de plus en plus d’entreprises adoptent la norme, les fournisseurs et déployeurs australiens et internationaux ressentiront la pression du marché pour s’assurer que leurs produits et services sont adaptés à leurs besoins. En retour, il deviendra moins cher et plus facile pour nous tous de savoir si le système d’IA que nous achetons, sur lequel nous comptons ou par lequel nous sommes jugés répond réellement à nos besoins.

Ouvrir un chemin

Les consommateurs et les entreprises australiennes souhaitent tous deux une IA sûre et responsable. Mais nous devons de toute urgence combler l’énorme fossé qui existe entre les aspirations et la pratique.

L'indice d'IA responsable du Centre national de l'IA montre que si 78 % des organisations estiment qu'elles développent et déploient des systèmes d'IA de manière responsable, seulement 29 % d'entre elles appliquent des pratiques concrètes à cette fin.

Une IA sûre et responsable est le fruit d’une bonne gouvernance, de bonnes pratiques commerciales et d’une technologie centrée sur l’humain. Dans une perspective plus large, il s’agit également de veiller à ce que l’innovation prospère dans un marché qui fonctionne bien. Sur ces deux fronts, les normes peuvent nous aider à nous frayer un chemin à travers le désordre.