LinkedIn utilisera les données des utilisateurs pour former l'IA : le garant de la confidentialité
À partir du 3 novembre 2025, LinkedIn utilisera les données personnelles contenues dans les publications publiques des utilisateurs adultes pour entraîner ses modèles d'intelligence artificielle générative. Les contenus tels que les publications, les commentaires, les légendes, les photos, les offres d'emploi et les interactions en groupe sont ciblés.
L'initiative, annoncée par l'entreprise, vise à « améliorer les services basés sur l'IA », mais a soulevé des inquiétudes concernant la protection de la vie privée.
Le droit d’opposition et comment l’exercer
Comme l'a précisé le Garant de la protection des données personnelles, les utilisateurs – et même les utilisateurs non enregistrés dont les données ont été publiées par d'autres – peuvent s'opposer à l'utilisation de leurs informations personnelles.
Ceux qui exercent leur droit d’opposition avant le 3 novembre empêcheront que leurs données existantes soient incluses dans les formations en IA. Les oppositions envoyées après cette date ne concerneront que les contenus publiés ultérieurement.
Des instructions détaillées sont disponibles sur le site Internet du Garant, qui a publié une fiche d'information pour simplifier la procédure.
Le rôle du Garant et la collaboration européenne
Le Garant italien a entamé une discussion avec d'autres autorités européennes pour vérifier la conformité de l'initiative de LinkedIn avec le Règlement général sur la protection des données (RGPD).
L’accent est mis sur trois points clés :
- la bonne mise en œuvre des mécanismes d’opposition,
- le type de données traitées,
- la validité de la base juridique invoquée, c'est-à-dire « l'intérêt légitime » de la plateforme.
Quels changements pour les utilisateurs
En l’absence d’opposition, LinkedIn pourra utiliser toutes les données publiques pour alimenter ses algorithmes d’intelligence artificielle.
Cette affaire représente un nouveau test pour la régulation européenne de l’IA et de la protection des données personnelles, dans un contexte où les grandes plateformes continuent de faire pression pour l’intégration de systèmes génératifs dans leurs services numériques.
Quelles données seront utilisées ? La fiche d'information du Garant
Les données personnelles concernées sont :
Données de profil : nom, photo, poste actuel, expérience professionnelle, formation, emplacement, compétences, certifications, licences, expérience de bénévolat, publications, brevets, mentions de compétences et références.
Données sur les offres d'emploi : réponses aux questions de sélection et curriculum vitae.
Données de groupe : activités et messages de groupe.
Contenu : publications, articles, réponses à des enquêtes, contributions et commentaires (sous tous formats) des utilisateurs.
Commentaires : commentaires et données d'amélioration, qui peuvent inclure des demandes d'assistance des utilisateurs, des réactions positives ou négatives aux suggestions générées par l'IA, des rapports de problèmes concernant le contenu génératif de l'IA ou des commentaires soumis via les fonctionnalités de commentaires.
Données d'interaction de l'IA générative : contenu que les utilisateurs saisissent dans les fonctionnalités de l'IA générative (par exemple, recherche de texte, requêtes et questions).
LinkedIn précise : pas d'utilisation de messages privés pour entraîner l'IA générative
LinkedIn a annoncé qu'il n'utiliserait pas de messages privés, d'identifiants de connexion, de données de carte de crédit, de méthodes de paiement ou d'informations sur les salaires, ni de données d'application liées à des utilisateurs spécifiques pour former ses modèles d'intelligence artificielle générative.
La plateforme de Microsoft a précisé que l'objectif est d'améliorer les systèmes d'IA qui alimentent les fonctionnalités de ses produits, sans compromettre la confidentialité des communications ou des données les plus délicates.
Transparence et droit d'opposition
Dans la perspective de la mise à jour de la politique européenne de confidentialité, LinkedIn a lancé une campagne de communication pour informer les utilisateurs de la possibilité de s'opposer au traitement de leurs données à des fins de formation à l'IA.
Les informations sont présentées via des notifications et des e-mails dans l'application, accompagnés d'une bannière dédiée sur la page de politique de confidentialité. À partir du 3 novembre 2025, le document mis à jour entrera officiellement en vigueur.
La bannière comprend également un lien direct vers un interrupteur à bascule qui permet aux utilisateurs de désactiver le paramètre par défaut, empêchant ainsi l'utilisation de leurs données pour la formation de modèles génératifs. Un aperçu de la nouvelle politique de confidentialité peut déjà être consulté sur ce lien.
Base juridique : intérêt légitime
La fonction appelée « Données pour améliorer l'IA générative » est active par défaut car LinkedIn base son traitement sur le principe de intérêt légitime. Dans la pratique, les données des utilisateurs seront automatiquement incluses dans les processus de formation de l’IA, sauf objection explicite.
Ceux qui souhaitent exclure leurs données peuvent facilement le faire via les paramètres de leur compte. Plus de détails et une section de questions fréquemment posées sont disponibles dans la FAQ officielle de LinkedIn.
