L'IA s'appuie sur une surveillance de masse, prévient le patron de Signal

L'IA s'appuie sur une surveillance de masse, prévient le patron de Signal

Les outils d'IA qui analysent les chiffres, génèrent des textes et des vidéos et trouvent des modèles dans les données s'appuient sur une surveillance de masse et des exercices de contrôle sur nos vies, a déclaré jeudi à l'AFP le patron de l'application de messagerie cryptée Signal.

Remontant à l'enthousiasme inconditionnel de VivaTech à Paris, la plus grande conférence européenne sur les startups où les acteurs de l'industrie vantent les mérites de leurs produits, Meredith Whittaker a déclaré que les inquiétudes concernant la surveillance et celles concernant l'IA étaient « deux cadres d'une même chose ».

« Les technologies d'IA dont nous parlons aujourd'hui dépendent d'une surveillance de masse », a-t-elle déclaré.

« Ils nécessitent d'énormes quantités de données qui sont les dérivés de ce modèle commercial de surveillance de masse qui s'est développé aux États-Unis dans les années 90 et est devenu le moteur économique de l'industrie technologique. »

Whittaker, qui a travaillé pendant des années pour Google avant de contribuer à l'organisation d'un débrayage du personnel en 2018 concernant les conditions de travail, a créé l'AI Now Institute à l'Université de New York en 2017.

Elle milite désormais pour la vie privée et dénonce les modèles économiques fondés sur l’extraction de données personnelles.

Et elle dit clairement qu’elle n’est pas convaincue que l’industrie de l’IA se développe dans la bonne direction.

Déséquilibres de pouvoir

Les systèmes d’IA ont soif de données à saisir, mais ils produisent également de grandes quantités de données.

Même s'il est incorrect, a-t-elle déclaré, ce résultat « a le pouvoir de classer, d'ordonner et de diriger nos vies d'une manière dont nous devrions également nous préoccuper ».

Et elle a souligné les déséquilibres de pouvoir créés par une industrie contrôlée par « une poignée de géants de la surveillance » qui sont « largement irresponsables ».

« La plupart d'entre nous ne sont pas des utilisateurs de l'IA », a-t-elle déclaré.

« La plupart d'entre nous sont soumis à son utilisation par nos employeurs, par les forces de l'ordre, par les gouvernements, par qui que ce soit.

« Ils ont leurs propres objectifs, mais ce ne sont peut-être pas des objectifs qui profitent à nous ou à la société. »

Elle a déclaré qu’un exemple frappant était la façon dont les entreprises d’IA aimaient dire qu’elles contribuaient à trouver des solutions à la crise climatique.

En fait, a-t-elle déclaré, ils prenaient de l’argent aux sociétés de combustibles fossiles et leur technologie était utilisée pour trouver de nouvelles ressources à extraire.

« Car, bien sûr, où sont les revenus ? Il ne s'agit pas de sauver le climat », a-t-elle déclaré.

« Il s'agit de contrats massifs avec BP, avec Exxon, avec d'autres grandes sociétés pétrolières et gazières. »

En fin de compte, elle a fait valoir que les Européens ne devraient pas penser en termes de concurrence avec les plus grandes entreprises américaines d’IA.

Une autre option pourrait être de « réimaginer une technologie qui puisse servir des sociétés plus démocratiques et plus respectueuses des droits ou pluralistes ».