La course aux entreprises pour utiliser l’IA met le public en danger, selon une étude
Selon une nouvelle étude, la ruée des entreprises australiennes vers l'utilisation de l'intelligence artificielle (IA) générative accroît les risques en matière de confidentialité et de sécurité pour le public ainsi que pour le personnel, les clients et les parties prenantes.
La recherche de l'Université de la Sunshine Coast, publiée dans un article en IA et éthiqueprévient que l’adoption rapide de l’IA expose les entreprises à de vastes conséquences.
Il s'agit notamment de violations massives de données qui exposent des informations de tiers et de faillites commerciales basées sur une modélisation de l'IA manipulée ou « empoisonnée », qu'elle soit accidentelle ou délibérée.
L’étude comprenait une liste de contrôle en cinq points permettant aux entreprises de mettre en œuvre de manière éthique des solutions d’IA.
Le professeur UniSC en cybersécurité, le Dr Declan Humphreys, a déclaré que la course aux entreprises pour adopter des solutions d'IA générative telles que ChatGPT, Bard de Microsoft ou Gemini de Google était semée d'embûches non seulement techniques, mais aussi morales.
Les applications d’IA générative transforment de grandes quantités de données du monde réel en contenu qui semble avoir été créé par des humains. ChatGPT est un exemple d'application d'IA basée sur un langage.
« La recherche montre qu'il n'y a pas que les entreprises technologiques qui se précipitent pour intégrer l'IA dans leur travail quotidien : il y a aussi les centres d'appels, les opérateurs de chaîne d'approvisionnement, les fonds d'investissement, les entreprises de vente, de développement de nouveaux produits et de gestion des ressources humaines », a déclaré le Dr Humphreys.
« Alors que l'on parle beaucoup de la menace de l'IA pour l'emploi, ou du risque de biais, peu d'entreprises prennent en compte les risques liés à la cybersécurité.
« Les organisations prises dans le battage médiatique peuvent se rendre vulnérables soit en s'appuyant trop sur les systèmes d'IA, soit en leur faisant trop confiance. »
L'article a été co-écrit par des experts d'UniSC en cybersécurité, en informatique et en IA, dont le Dr Dennis Desmond, le Dr Abigail Koay et le Dr Erica Mealy.
L’étude a révélé que de nombreuses entreprises créaient leurs propres modèles d’IA ou faisaient appel à des fournisseurs tiers sans tenir compte du potentiel de piratage.
« Le piratage pourrait impliquer l'accès aux données des utilisateurs, qui sont intégrées aux modèles, ou même la modification de la façon dont le modèle répond aux questions ou aux réponses qu'il donne », a déclaré le Dr Humphreys. « Cela pourrait entraîner des fuites de données ou affecter négativement les décisions commerciales. »
Il a déclaré que la législation n’avait pas suivi le rythme des questions de protection des données et d’IA générative. « Cette étude recommande comment les organisations peuvent mettre en œuvre de manière éthique des solutions d'IA en prenant en compte les risques de cybersécurité. »
La liste de contrôle en cinq points comprend :
- Conception de modèles d’IA sécurisés et éthiques
- Processus de collecte de données fiable et équitable
- Stockage sécurisé des données
- Recyclage et maintenance éthiques des modèles d’IA
- Perfectionnement, formation et gestion du personnel.
Le Dr Humphreys a déclaré que la confidentialité et la sécurité devraient être une priorité absolue pour les entreprises mettant en œuvre des systèmes d'intelligence artificielle en 2024 et au-delà.
« L'adoption rapide de l'IA générative semble aller plus vite que la compréhension par l'industrie de la technologie et de ses risques éthiques et de cybersécurité inhérents », a-t-il déclaré. « Un risque majeur est son adoption par les travailleurs sans conseils ni compréhension de la manière dont les différents outils d'IA générative sont produits ou gérés, ou des risques qu'ils posent.
« Les entreprises devront introduire de nouvelles formes de gouvernance et de cadres réglementaires pour protéger les travailleurs, les informations sensibles et le public. »