Les lunettes de Meta enregistrent tout ce que nous voyons. Certains messieurs au Kenya y réfléchissent également pour former l'IA

Les lunettes de Meta enregistrent tout ce que nous voyons. Certains messieurs au Kenya y réfléchissent également pour former l'IA

Meta participe à deux courses. D’un côté, celui de l’intelligence artificielle. D'autre part, trouver le « nouveau smartphone ». En ce sens, son pari total est sur les lunettes avec IA. Des appareils comme le Ray-Ban Meta 2 ont le potentiel d’enregistrer tout ce que nous voyons. Et dans ce « tout », c'est se déshabiller dans une cabine d'essayage, avoir des relations sexuelles ou saisir le mot de passe bancaire sur notre téléphone portable.

Et quelqu’un au Kenya regarde tout cela avec un seul objectif : former l’intelligence artificielle.

En bref. Avant d’approfondir, voyons le contexte. Le média suédois Svenska Dagbladet a publié un rapport dans lequel il explique comment l'intelligence artificielle de Meta est entraînée. Du moins, à l'IA qui donne vie à vos lunettes intelligentes. Pour cette formation, Meta collecte nos données telles que les conversations, les photos et les vidéos, qui sont envoyées en paquets massifs aux entreprises qui les décomposent puis « filment » les informations dans le logiciel de formation.

L'une de ces sociétés est Sama. L'entreprise est située au Kenya et certains de ses employés ont révélé aux journalistes suédois le type d'informations qu'ils voient chaque jour, racontant certains cas qui restent des actions quotidiennes que nous faisons tous. Le problème est que nous les faisons en toute confidentialité. Cela dit, on y va petit à petit car il y en a beaucoup.

Ray-Ban Méta. Les lunettes n'ont pas besoin d'être présentées et, en fait, nous avons testé la deuxième génération il y a quelques semaines. Dans notre analyse des Ray-Ban Meta 2, nous avons déjà dit qu'elles faisaient partie de cette vision post-smartphone grâce à une caméra et un son très corrects, mais avec une IA décevante. C'est précisément le point sur lequel Meta a dû travailler davantage et il le fait grâce aux images qu'il collecte auprès de chaque utilisateur.

Ce à quoi nous abandonnons. Dans l'enquête des médias suédois, et c'est quelque chose que l'on peut voir dans les conditions d'utilisation des services Meta AI, est détaillée une situation dans laquelle il apparaît que nous avons un contrôle important sur les données telles que les images ou les enregistrements vocaux. Le document note que certaines données peuvent être enregistrées et utilisées pour améliorer les produits Meta si l'utilisateur donne son consentement, mais il existe un côté B : pour que l'assistant IA fonctionne, la voix, le texte, l'image et la vidéo doivent être fournis.

Selon ces conditions, « dans certains cas, Meta examinera les interactions avec l'IA, y compris le contenu des conversations ou des messages adressés à l'IA. Cet examen peut être automatisé ou manuel ». En outre, il est également établi que l’utilisateur ne doit pas partager d’informations qu’il ne souhaite pas que l’IA utilise ou conserve, telles que « des informations sur des sujets sensibles ». Le problème est que si vous n’acceptez pas, vous ne pouvez pas utiliser Meta AI.

Entraîner l'IA manuellement. Lorsque l’examen des données est manuel, c’est là que le problème commence. L'article indique que l'un des centres d'analyse est situé au Kenya. Elle s’appelle Sama et c’est une entreprise engagée par Meta pour effectuer une tâche connue sous le nom d’« étiquetage ». Les données qui quittent l'appareil passent par un processus de nettoyage qui brouille les visages et les données privées, mais les travailleurs effectuent ensuite certaines actions manuelles sur les images.

Capture d'écran 2026 03 04 Au 15 01 29
Capture d'écran 2026 03 04 Au 15 01 29

Un exemple d'étiquetage

Par exemple, sélectionner les contours de personnes, nommer des objets tels que « lampe », « voiture », « livre », « ordinateur », enregistrer les panneaux de signalisation et, en bref, tout ce que nous voyons. Ensuite, tout ce qui est correctement étiqueté est organisé en paquets de données qui sont « lancés » vers les systèmes de formation à l'intelligence artificielle. Car si une IA « sait » qu'un panneau « STOP » est un panneau « STOP », c'est parce que cela a été enseigné auparavant avec des images réelles. Le but est d’améliorer, justement, ce que nous critiquions dans notre analyse : l’intelligence artificielle et sa connexion avec le monde.

Meta a stocké les mots de passe de millions d'utilisateurs en texte brut il y a des années. Il doit maintenant payer une amende d'un million de dollars dans l'UE

Quand le système tombe en panne. Pour l'analyse, ils ont contacté d'anciens employés de Meta dans des centres d'étiquetage aux États-Unis. Ils assurent que le système anonymise automatiquement les visages et les données sensibles, mais « les algorithmes se perdent parfois. Surtout dans des conditions d'éclairage difficiles, certains visages et corps sont parfaitement visibles ».

Et c'est là que le problème commence. Les ouvriers du centre d'étiquetage qui a été scruté à la loupe ne sont pas là à regarder ce que je vais détailler ci-dessous par plaisir ou par voyeurisme, mais parce qu'ils étiquetent pour entraîner l'IA. Le problème est… ce que vous êtes censé voir dans les images.

Rien n'est privé. Un employé du centre de données kenyan explique que « dans certaines vidéos, on peut voir quelqu'un aller aux toilettes ou se déshabiller. Je ne pense pas qu'il le sache, car s'il ne le faisait pas, il n'enregistrerait pas ». Mais aller aux toilettes n’est pas la seule chose qu’ils ont vue dans ce centre d’étiquetage. Scènes quotidiennes dans une pièce occidentale suivies d'autres dans lesquelles se déroulent des relations sexuelles. Enregistrer une autre personne nue par erreur (lorsque votre partenaire sort de la douche, par exemple), ou laisser vos lunettes sur une surface de la pièce pour enregistrer comment votre femme change à son insu.

Sont également analysées des transcriptions de manifestations, des crimes « de choses très sombres » ou des sujets tels que la description d'une femme par un homme qui affirme qu'il aimerait avoir des relations avec elle. « Nous voyons tout et Meta a ce type de contenu dans sa base de données. Les gens peuvent s'enregistrer de la mauvaise manière et ne pas savoir qu'ils le font », dit l'un des travailleurs qui assure que, si les clips étaient divulgués, ce serait un « énorme scandale ».

« Je pense que s’ils connaissaient l’ampleur de la collecte de données, personne n’oserait porter les lunettes »

Et si je n'enregistre pas ? Svenska Dagbladet n'a pas fait ce reportage depuis deux jours. Ils soulignent qu'ils ont travaillé sur l'information pendant des mois, rencontré les parties et demandé à la fois aux opticiens où les lunettes peuvent être achetées et à Meta elle-même. Concernant les détaillants, ils affirment ne pas savoir où vont les données. D'autres soulignent que « tout est conservé localement dans l'application », ce qui est faux car l'IA de Meta ne fonctionne pas sur l'appareil : elle a besoin d'une connexion Internet.

Un autre problème entre en jeu ici, à savoir le type de formation que reçoivent les détaillants qui vendent les appareils, mais il y a quelque chose en arrière-plan auquel vous pensez peut-être. D'accord, les données sont filtrées, mais… et si j'enregistrais consciemment seulement quand je le souhaite ? Voici la méta elle-même qui détaille le fonctionnement de cet enregistrement vidéo et sonore :

  • En appuyant sur un bouton physique sur les lunettes.
  • Lorsque vous utilisez la commande « Hey Meta » et posez une question.

Que dit Meta ? «Lorsque Meta AI est utilisé, nous traitons ces données conformément aux conditions d'utilisation et à la politique de confidentialité de Meta AI», déclare Joyce Omope, porte-parole de Meta. Ce n'est pas très révélateur, mais un dirigeant de Meta interrogé par les médias et qui a préféré rester anonyme affirme que peu importe où se trouve le serveur sur lequel les données sont stockées tant que le pays se conforme aux exigences de l'Union européenne.

Le problème est qu'ils parlent de la politique de confidentialité, pas de ce qui est fait avec les données pour la formation Meta AI. Depuis Simseo, nous avons contacté Meta pour connaître sa vision en la matière.

Meta paiera 1,4 milliard de dollars au Texas pour violation de la vie privée de ses utilisateurs. Reconnaissance faciale utilisée sans autorisation

Ajoutez et continuez. À ce stade, vous pensez peut-être : « Attendez, cette histoire vous semble familière. » Et la vérité est que ce n’est pas la première fois qu’une controverse liée à l’examen manuel des informations privées dans les applications de l’entreprise est révélée. Il y a quelques années, outre Cambridge Analytica, ce qui s'appelait alors Facebook faisait déjà face à une autre controverse en déclarant qu'il analysait tous les messages, liens et images envoyés via Messenger et Instagram pour s'assurer que « les règles de contenu ne sont pas violées ».

Également les conditions des modérateurs de Facebook, exposés à des contenus de toutes sortes pour décider si quelque chose peut être vu ou non sur la plateforme. On parle de sexe, mais aussi de vidéos de morts violentes ou de maltraitance d'enfants. C’est un phénomène qui a été progressivement découvert et qui a même touché les travailleurs espagnols. Dans le centre de modération de Barcelone, en particulier, où les employés réclament une compensation d'un million de dollars après des années de témoignage des violences les plus explicites.

Ces employés subissent un stress post-traumatique, des crises de panique, des phobies et même des idées suicidaires en raison du type de contenu qu'ils doivent consulter. Ce n'est plus qu'ils voyaient des gens nus parce qu'ils doivent tout étiqueter pour nourrir l'insatiable IA : on parle de décapitations, de viols, de suicides vivants et de pédopornographie. Jusqu'à 800 vidéos par jour.

Être modérateur de porno n’est pas amusant du tout. Il a été exposé à « des contenus extrêmes, violents, graphiques et sexuellement explicites »

AI = 'Un autre Indien'. Et à toutes les controverses s’ajoute quelque chose de plus fondamental. Cet étiquetage des données, si essentiel pour que les modèles d’apprentissage… apprennent, repose en grande partie sur les emplois précaires occupés par les habitants des pays en développement. Le Kenya est un pays où il existe plusieurs « centres de données humains » comme celui qui travaille pour Meta et qui étiquette ce que voient les Ray-Ban Meta. En fait, il y a quelques mois, un rapport a été publié dans Coda expliquant comment le Kenya, et Sama en particulier, effectuaient le « sale boulot numérique » à l'ère de l'IA. OpenAI était impliqué.

Ils se concentrent également sur les installations en Inde, d'où la très mauvaise blague « Un autre Indien » et récemment le « truc » des taxis à distance de Waymo est devenu connu : des Philippins « conduisent » les voitures à distance. Au moins aider.

Comme nous le disons, nous avons contacté Meta et nous mettrons à jour l'article dès que nous aurons une réponse.

Images | Simseo (Crossover), Jouets We-Vibe, Unplash, BaristaVision+

À Simseo | Soixante pays ont signé un accord pour une IA « ouverte », « inclusive » et « sûre ». Et deux autres qui ne le font pas : les États-Unis et le Royaume-Uni.