Les politiciens poussent l'IA comme une solution rapide à la crise du logement en Australie. Ils risquent un autre robodebt
« C'est un changeur de jeu. » C'est ainsi que Paul Scully, le ministre de la Nouvelle-Galles du Sud pour la planification et les espaces publics, a décrit le lancement par le gouvernement de l'État d'un appel d'offres pour une solution d'intelligence artificielle (IA) à la crise du logement au début du mois.
Le système, qui vise à couper les formalités administratives et à faire construire plus de maisons rapidement, devrait fonctionner d'ici la fin de 2025.
« Cela permet à la construction de commencer et de nouvelles clés dans de nouvelles portes », a ajouté Scully.
L'annonce a ensuite été approuvée par le trésorier fédéral Jim Chalmers en tant que modèle pour que d'autres États et territoires puissent reproduire, pour « débloquer plus de logements » et « stimuler la productivité à travers l'économie ».
Accélérer les approbations des bâtiments est une préoccupation clé du soi-disant programme d'abondance pour stimuler la croissance économique.
Ces roues sont déjà en mouvement ailleurs en Australie. La Tasmanie élabore une politique de l'IA, et l'Australie du Sud teste un pilote à petite échelle pour des applications d'habitation spécifiques pour permettre aux utilisateurs de soumettre des dessins architecturaux numériques à évaluer automatiquement par rapport aux critères prescrits.
Mais l'IA sera-t-elle vraiment une solution rapide pour la crise du logement en Australie?
Couper des formalités administratives
Le logement et l'IA étaient tous deux des thèmes clés à la table ronde de productivité du mois dernier.
Dans un communiqué de presse conjoint, le ministre fédéral du logement Clare O'Neil et le ministre de l'Environnement et de l'eau, Murray Watt, a déclaré que « l'assouplissement du fardeau réglementaire des constructeurs » est ce dont l'Australie a besoin.
Ils indiquent l'arriéré de 26 000 maisons actuellement bloquées dans l'évaluation en vertu des lois sur la protection de l'environnement en tant que point d'étranglement clair. Et l'IA va être utilisée pour «simplifier et accélérer les évaluations et les approbations».
Rien de tout cela, cependant, n'explique le rôle précis de l'IA dans la machinerie complexe du système de planification, laissant beaucoup à la spéculation.
Le rôle de l'IA sera-t-il limité à la vérification des demandes d'exhaustivité et de classification et de validation des documents, alors que les conseils victoriens explorent déjà? Ou rédiger des éléments écrits des évaluations, comme c'est déjà le cas dans le territoire de la capitale australienne?
Ou va-t-il aller plus loin? Les agents de l'IA, par exemple, auront-ils une certaine autonomie dans certaines parties du processus d'évaluation? Si oui, où sera-ce exactement? Comment sera-t-il intégré à l'infrastructure existante? Et surtout, dans quelle mesure le jugement des experts sera-t-il déplacé?
Une solution rapide tentante
La présentation de l'IA comme une solution rapide pour la pénurie de logements en Australie pourrait être tentante. Mais cela risque de distraire des problèmes systémiques plus profonds tels que les goulots d'étranglement du marché du travail, les incitations financières et fiscales et la réduction des logements sociaux et abordables.
La technologie remodèle également tranquillement le système de planification – et le rôle des planificateurs en elle – avec de graves conséquences.
La planification n'est pas seulement la paperasse en attente d'être automatisée. C'est un jugement exercé lors des visites sur le site, en écoutant les parties prenantes et en pesant le contexte local contre le plus large.
Le déshabiller peut rendre le système et les gens fragiles, déplaçant l'expertise des planificateurs et la responsabilité floue lorsque les choses tournent mal. Et lorsque des erreurs impliquant l'IA se produisent, il peut être très difficile de les retracer, les recherches montrant l'explication ont été le talon d'Achille de la technologie.
Le gouvernement de la Nouvelle-Galles du Sud suggère de mettre un humain en charge de la décision finale suffit pour résoudre ces préoccupations.
Mais la machine ne se contente pas de se contenter de silencieusement dans le coin en attendant que le bouton d'approbation soit enfoncé. Il se balance. Il encadre. Il façonne ce qui est vu et ce qui est ignoré à différents stades de l'évaluation, souvent d'une manière qui n'est pas évidente du tout.
Par exemple, mettre en évidence certains risques écologiques sur d'autres peut simplement incliner le briefing d'un évaluateur, même lorsque les communautés locales pourraient avoir des préoccupations entièrement différentes. Ou lorsque l'IA classe une voie d'évaluation comme le « meilleur ajustement » en fonction des modèles enfouis dans ses données de formation, l'évaluateur peut simplement dériver vers cette option, sans réaliser que la portée et la direction de leurs choix ont déjà été rétrécies.
Leçons de Robodebt
Le programme d'intervention de conformité en ligne de Centrelink – plus communément connu sous le nom de Robodebt – dégage des leçons importantes ici. Vendu comme un moyen de rendre la reprise de la dette plus «efficace», il s'est rapidement effondré en un fiasco de 4,7 milliards de dollars.
Dans ce cas, une feuille de calcul automatisée – pas même de l'IA – des milliers de personnes, a déclenché un recours collectif lourde et a brisé la confiance du public dans le gouvernement.
Si les gouvernements considèrent désormais l'IA comme un outil pour réformer la planification et les évaluations, ils ne devraient pas se précipiter en tête.
La peur de manquer peut être réelle. Mais le mouvement plus sage est de faire une pause et de demander d'abord: quel problème essayons-nous réellement de résoudre avec l'IA, et tout le monde est-il même d'accord que c'est le vrai problème?
Ce n'est qu'alors que vient la question de savoir comment le faire de manière responsable, sans trébucher dans les mêmes conséquences évitables que Robodebt.
L'innovation responsable offre une feuille de route en avant
L'innovation responsable signifie anticiper dès le début des risques et des conséquences involontaires – en incluant et en délibérant avec ceux qui utiliseront et seront affectés par le système, à la recherche de proactive des angles morts et à la réaction des impacts.
Il existe de nombreuses études de recherche, outils et cadres de recherche dans le domaine de l'innovation responsable qui peuvent guider la conception, le développement et le déploiement des systèmes d'IA dans la planification. Mais la clé est de s'engager avec les causes profondes et les conséquences involontaires, et de remettre en question les hypothèses sous-jacentes sur la vision et le but du système d'IA.
Nous ne pouvons pas nous permettre d'ignorer les bases de l'innovation responsable. Sinon, ce soi-disant « Gamechanger » à la crise du logement pourrait se retrouver assis aux côtés de Robodebt, car une autre histoire édifiante de la façon dont les innovations vendues en tant que gains d'efficacité peuvent se tromper.
