Facebook a collecté des données publiques auprès d'utilisateurs australiens sans leur demander de s'y opposer. Que peut-on faire ?
Facebook a reconnu hier lors d'une enquête du Sénat qu'il récupérait les photos publiques des utilisateurs australiens pour former ses modèles d'intelligence artificielle (IA).
La société mère de Facebook, Meta, affirme que cela exclut les données des utilisateurs qui ont marqué leurs publications comme « privées », ainsi que les photos ou les données des utilisateurs de moins de 18 ans.
Les entreprises comme Meta n'étant pas tenues de nous dire quelles données elles utilisent ni comment elles les utilisent, nous devrons les croire sur parole. Malgré tout, les utilisateurs craindront probablement que Meta utilise leurs données à des fins auxquelles ils n'ont pas expressément consenti.
Mais les utilisateurs peuvent prendre certaines mesures pour améliorer la confidentialité de leurs données personnelles.
Modèles gourmands en données
Les modèles d'IA sont gourmands en données. Ils ont besoin d'énormes quantités de nouvelles données pour s'entraîner. Et Internet offre un accès facile à des données relativement faciles à ingérer dans un processus qui ne fait pas de distinction entre les œuvres protégées par le droit d'auteur et les données personnelles.
Beaucoup de gens s’inquiètent des conséquences possibles de cette ingestion à grande échelle et de manière obscure de nos informations et de notre créativité.
Les médias ont poursuivi en justice des sociétés d’intelligence artificielle comme OpenAI pour avoir formé des modèles à partir de leurs articles d’actualité. Les artistes qui utilisent les plateformes de médias sociaux comme Facebook et Instagram pour faire connaître leur travail craignent également que leurs œuvres soient utilisées sans autorisation, sans rémunération ni crédit.
D’autres s’inquiètent du risque que l’IA les présente de manière inexacte et trompeuse. Un maire local de Victoria a envisagé d’engager des poursuites judiciaires contre ChatGPT après que le programme a faussement affirmé qu’il était coupable dans un scandale de corruption étrangère.
Les modèles d’IA générative n’ont pas la capacité de vérifier la véracité des déclarations ou des images qu’ils produisent, et nous ne savons toujours pas quels dommages résulteront de notre dépendance croissante aux outils d’IA.
Les habitants d’autres pays sont mieux protégés
Dans certains pays, la législation empêche les utilisateurs ordinaires de faire ingérer leurs données par des entreprises d’IA.
Meta a récemment reçu l'ordre de cesser d'entraîner son grand modèle linguistique sur les données des utilisateurs européens et a donné à ces utilisateurs une option de désinscription.
Dans l'Union européenne, les données personnelles sont protégées par le Règlement général sur la protection des données. Cette loi interdit l'utilisation de données personnelles pour des « technologies d'intelligence artificielle » sans consentement explicite.
Les Australiens ne disposent pas des mêmes options dans le cadre des lois actuelles sur la protection de la vie privée. L'enquête récente a renforcé les appels à une mise à jour de ces lois pour mieux protéger les utilisateurs. Une réforme majeure de la loi sur la protection de la vie privée a également été annoncée aujourd'hui, après plusieurs années de préparation.
Trois actions clés
Les Australiens peuvent prendre trois mesures clés pour mieux protéger leurs données personnelles contre des entreprises comme Facebook en l’absence de législation ciblée.
Premièrement, les utilisateurs de Facebook peuvent s'assurer que leurs données sont marquées comme « privées ». Cela empêcherait tout scraping futur (même si cela ne tiendra pas compte du scraping qui a déjà eu lieu ou de tout scraping dont nous ne sommes peut-être pas au courant).
Deuxièmement, nous pouvons expérimenter de nouvelles approches du consentement à l’ère de l’IA. Par exemple, la start-up technologique Spawning expérimente de nouvelles méthodes de consentement pour « bénéficier à la fois au développement de l’IA et aux personnes sur lesquelles elle est formée ». Son dernier projet, Source.Plus, vise à sélectionner des médias « non contrefaisants » pour la formation de modèles d’IA à partir d’images du domaine public et d’images sous licence Creative Commons CC0 « aucun droit réservé ».
Troisièmement, nous pouvons faire pression sur notre gouvernement pour qu’il fasse pression sur les entreprises d’IA afin qu’elles demandent notre consentement lorsqu’elles extraient nos données et pour garantir que les chercheurs et les agences publiques puissent auditer les entreprises d’IA pour s’assurer de leur conformité.
Nous devons élargir le débat sur les droits que le public devrait avoir pour résister aux entreprises technologiques qui utilisent nos données. Ce débat doit également inclure une approche alternative de la création d'IA, fondée sur l'obtention du consentement et le respect de la vie privée des personnes.