De nombreux Australiens utilisent secrètement l'IA au travail, selon un nouveau rapport. Des règles plus claires pourraient réduire «l'ombre AI»
Les travailleurs australiens utilisent secrètement des outils génératifs de l'intelligence artificielle (GEN AI) – sans connaissance ou approbation de leur patron, selon un nouveau rapport.
Le rapport «Our Gen AI Transition: Implications for Work and Skills» des emplois et compétences du gouvernement fédéral Australie, australie, plusieurs études, montrant entre 21% et 27% des travailleurs (en particulier dans les industries des cols blancs) utilisent l'IA dans le dos de leur manager.
Pourquoi certaines personnes le cachent-elles encore? Le rapport indique que les personnes ont couramment dit:
- « Sentiez que l'utilisation de l'IA est triche »
- avoir une « peur d'être considérée comme paresseuse »
- et une « peur d'être considérée comme moins compétente ».
Ce qui est le plus frappant, c'est que cette augmentation de «l'utilisation de l'ombre» non approuvée de l'IA se produit même si le trésorier fédéral et la Commission de la productivité exhorte les Australiens à tirer le meilleur parti de l'IA.
Les nouveaux résultats du rapport mettent en évidence les lacunes dans la façon dont nous régissant l'utilisation de l'IA au travail, laissant les travailleurs et les employeurs dans l'ignorance de la bonne chose à faire.
Comme je l'ai vu dans mon travail – à la fois en tant que chercheur juridique qui examine la gouvernance de l'IA et en tant qu'avocat en exercice – il y a quelques emplois où les règles d'utilisation de l'IA au travail changent dès que vous traversez une frontière de l'État en Australie.
Risques et avantages de «l'utilisation de l'ombre» de l'IA
Le rapport sur les emplois et les compétences de 124 pages couvre de nombreux problèmes, notamment l'adoption précoce et inégale de l'IA, comment l'IA pourrait aider dans les travaux futurs et comment cela pourrait affecter la disponibilité des emplois.
Parmi ses résultats les plus intéressants concernant les travailleurs qui utilisent l'IA en secret – ce qui n'est pas toujours une mauvaise chose. Le rapport constaté que ceux qui utilisent l'IA dans l'ombre sont parfois des leaders cachés, « entraînant l'innovation ascendante dans certains secteurs ».
Cependant, il comporte également de sérieux risques.
« L'utilisation de l'ombre dirigée par les travailleurs est une partie importante de l'adoption à ce jour. Une partie importante des employés utilise les outils de la génération AI indépendamment, souvent sans surveillance de l'employeur, indiquant l'enthousiasme de la base, mais aussi la gouvernance et les problèmes de risque. »
Le rapport recommande d'exploiter cette adoption et l'expérimentation précoce, mais prévient:
« En l'absence de gouvernance claire, l'utilisation de l'ombre peut proliférer. Cette expérimentation informelle, tandis qu'une source d'innovation, peut également fragmenter des pratiques difficiles à évoluer ou à intégrer plus tard. Elle augmente également les risques concernant la sécurité des données, la responsabilité et la conformité et les résultats incohérents. »
Risques réels des échecs de l'IA
Le rapport appelle à l'intendance nationale de la transition de l'AI australienne à travers un cadre national coordonné, une capacité centralisée et une augmentation de toute la population des compétences numériques et d'IA.
Cela reflète mes propres recherches, montrant que le cadre juridique de l'IA de l'Australie a des angles morts, et nos systèmes de connaissances, de la loi aux rapports juridiques, ont besoin d'une repensation fondamentale.
Même dans certaines professions où des règles plus claires ont émergé, trop souvent, elle est venue après de graves échecs.
À Victoria, un travailleur de la protection de l'enfance a pénétré des détails sensibles à Chatgpt à propos d'une affaire judiciaire concernant les infractions sexuelles contre un jeune enfant. Le commissaire à l'information victorien a interdit le personnel de la protection de l'enfance de l'État de l'utilisation d'outils d'IA jusqu'en novembre 2026.
Les avocats ont également été constatés par une mauvaise utilisation de l'IA, des États-Unis et du Royaume-Uni en Australie.
Un autre exemple – influençant des informations trompeuses créées par l'IA pour une affaire de meurtre de Melbourne – a été rapportée hier.
Mais même pour les avocats, les règles sont inégales et diffèrent d'un État à l'autre. (La Cour fédérale fait partie de ceux qui développent encore ses règles.)
Par exemple, un avocat en Nouvelle-Galles du Sud n'est désormais clairement pas autorisé à utiliser l'IA pour générer le contenu d'un affidavit, notamment « modifier, embellir, renforcer, diluer ou reformuler la preuve d'un déposant ».
Cependant, aucun autre État ou territoire n'a adopté cette position aussi clairement.
Règles plus claires au travail et en tant que nation
À l'heure actuelle, l'utilisation de l'IA au travail se trouve dans une zone grise de gouvernance. La plupart des organisations se présentent sans politiques claires, évaluations des risques ou garanties juridiques. Même si tout le monde le fait, le premier rattrapé fera face aux conséquences.
À mon avis, la législation uniforme nationale pour l'IA serait préférable. Après tout, la technologie de l'IA que nous utilisons est la même, que vous soyez en Nouvelle-Galles du Sud ou dans le Territoire du Nord – et l'IA ne connaît pas de frontières physiques. Mais cela ne semble pas encore probable.
Si les employeurs ne veulent pas que les travailleurs utilisent l'IA en secret, que peuvent-ils faire? S'il y a des risques évidents, commencez par donner aux travailleurs des politiques et une formation plus claires.
Un exemple est ce que fait la profession juridique maintenant (dans certains États) pour donner des conseils clairs et écrits. Bien que ce ne soit pas parfait, c'est un pas dans la bonne direction.
Mais ce n'est sans doute pas assez bon, surtout parce que les règles ne sont pas les mêmes à l'échelle nationale.
Nous avons besoin d'une gouvernance nationale d'IA plus proactive – avec des politiques plus claires, une formation, des directives éthiques, une approche basée sur les risques et une surveillance de la conformité – pour clarifier le poste pour les travailleurs et les employeurs.
Sans politique nationale de gouvernance de l'IA, les employeurs doivent naviguer dans un champ de mines réglementaire fragmenté et incohérent, courtisant les violations à chaque tour.
Pendant ce temps, les travailleurs mêmes qui pourraient être à l'avant-garde de notre transformation d'IA peuvent être poussés à utiliser l'IA en secret, craignant d'être jugés comme des tricheurs paresseux.
