Slack utilise des messages privés pour entraîner son IA sans notre consentement.  Votre argument ne fait qu'empirer les choses.

Slack utilise des messages privés pour entraîner son IA sans notre consentement. Votre argument ne fait qu'empirer les choses.

Slack est l'une des plateformes de communication d'entreprise les plus populaires, avec Microsoft Teams. Ces derniers jours, elle a mis en œuvre une politique dans laquelle elle utilise les données de ses clients pour former des modèles d'IA.

Ces données incluent vos messages et fichiers privés, et pas seulement les conversations sur les canaux publics de l'entreprise. Cela se fait par défaut et sans demander d’autorisation explicite.

Parce que c'est important. Cette affaire met en évidence le risque pour la vie privée que représente le fait qu’un nombre croissant d’entreprises développent des outils d’IA utilisant de grandes quantités de données utilisateur, souvent de manière opaque. Cela soulève également des questions sur le niveau de contrôle qu’exercent les particuliers et les entreprises sur leurs informations dans les services cloud.

Ce que Slack a fait. Sur son site Web, sur une page cachée concernant ses principes de confidentialité, Slack a révélé que ses systèmes « analysent les données des clients (telles que les messages et les fichiers) envoyées à Slack, ainsi que d'autres informations (telles que les analyses d'utilisation) pour former de nouveaux modèles de service.  » L'IA, par défaut et sans demander d'autorisation spécifique.

La seule façon d'exclure les données d'une entreprise est qu'un administrateur de votre équipe dans Slack envoie un e-mail au service demandant une exclusion globale. Les utilisateurs individuels ne peuvent pas effectuer ce processus.

Problèmes de confidentialité. Slack affirme qu'il dispose de contrôles techniques pour empêcher l'accès à certaines formes de contenu et que les données ne fuiront pas entre les espaces de travail, mais alimenter les chats privés et les fichiers sensibles des systèmes d'IA présente un risque.

La manière de demander l'exclusion, en devant envoyer un email à l'administrateur au lieu d'être un processus simple et intégré (et sans l'exécuter par défaut) est une autre manière que nous connaissons depuis longtemps. Une manière de décourager les entreprises de demander leur exclusion.

L'argument de Slack. Dans une déclaration qu'ils ont cherché à rassurer, ils ont déclaré qu'ils utilisaient ces techniques pour « des choses comme les recommandations de chaînes, les recommandations d'emoji ou les résultats de recherche ». Il est inquiétant qu'ils utilisent par défaut des conversations privées et des fichiers sensibles pour quelque chose d'aussi trivial que de suggérer des émojis dans des réactions.

Ils assurent qu'il s'agit de données « anonymisées et agrégées » et que les clients peuvent demander l'exclusion, mais le risque de fuite d'informations lorsqu'on travaille avec des données privées est présent.

Des doutes qui persistent. Avec une utilisation si axée sur les moindres détails, comme la recommandation d'émojis ou le tri dans les recherches, de nombreuses personnes se demandent pourquoi Slack a besoin d'accéder à des conversations privées pour quelque chose comme ça.

La promesse que les données ne quittent pas votre infrastructure n’élimine pas le risque de violation ou d’utilisation abusive. Et ce cas est un exemple du dilemme en matière de confidentialité posé par l’essor de l’IA, avec également la tentation qu’ont les entreprises d’alimenter leurs modèles avec des données utilisateur sensibles et des techniques opaques.

À Simseo | Il existe un super pouvoir qui augmente votre productivité presque immédiatement : dire « pas maintenant »

Image en vedette | Stephen Phillips (Hostreviews) sur Unsplash