Le gouvernement britannique doit montrer que son plan d’IA peut être fiable pour faire face à de graves risques en ce qui concerne les données de santé
Le nouveau plan du gouvernement britannique pour favoriser l’innovation par l’intelligence artificielle (IA) est ambitieux. Ses objectifs reposent sur la meilleure utilisation des données publiques, y compris les efforts renouvelés pour maximiser la valeur des données de santé détenues par le NHS. Pourtant, cela pourrait impliquer l’utilisation de données réelles de patients utilisant le NHS. Cela a été très controversé dans le passé et les tentatives précédentes d’utiliser ces données de santé ont parfois été proches de la désastre.
Les données des patients seraient anonymisées, mais les préoccupations restent concernant les menaces potentielles à cet anonymat. Par exemple, l’utilisation de données sur la santé s’est accompagnée de soucis concernant l’accès aux données à des fins commerciales. Le programme Care.Data, qui s’est effondré en 2014, avait une idée sous-jacente similaire: partager des données de santé à travers le pays à la fois aux organismes de recherche financés par l’État et aux entreprises privées.
Une mauvaise communication sur les éléments les plus controversés de ce projet et l’échec à écouter les préoccupations ont conduit le programme à être mis de côté. Plus récemment, l’implication de la société technologique américaine Palantir dans la nouvelle plate-forme de données NHS a soulevé des questions sur qui peut et devrait accéder aux données.
Le nouvel effort pour utiliser les données de santé pour former (ou améliorer) les modèles d’IA s’appuie également sur le soutien du public au succès. Pourtant, sans surprise, dans les heures qui ont suivi cette annonce, les médias et les utilisateurs des médias sociaux ont attaqué le plan comme un moyen de monétiser les données de santé.
« Les ministres Mull permettant aux entreprises privées de réaliser des bénéfices des données du NHS dans l’IA Push », indique un titre publié.
Ces réponses, ainsi que celles de Care.Data et Palantir, reflètent à quel point la confiance du public est importante dans la conception de la politique. Cela est vrai, peu importe la complication que la technologie devient – et surtout, la confiance devient plus importante à mesure que les sociétés augmentent à l’échelle et nous sommes moins en mesure de voir ou de comprendre chaque partie du système. Il peut être difficile, voire impossible, de porter un jugement quant à l’endroit où nous devons faire confiance et comment bien faire cela. Cela est vrai que nous parlons de gouvernements, d’entreprises ou même de simplement des connaissances – à faire confiance (ou non) est une décision que chacun de nous doit prendre tous les jours.
Le défi de la confiance motive ce que nous appelons le «problème de reconnaissance de fiabilité», qui souligne que déterminer qui est digne de notre confiance est quelque chose qui découle des origines du comportement social humain. Le problème vient d’un simple problème: n’importe qui peut prétendre être digne de confiance et nous pouvons manquer de moyens de savoir s’ils le sont vraiment.
Si quelqu’un emménage dans une nouvelle maison et voit des annonces pour différents fournisseurs d’Internet en ligne, il n’y a pas de moyen sûr de savoir ce qui sera moins cher ou plus fiable. La présentation n’a pas besoin – et peut même ne pas souvent refléter quoi que ce soit sur les qualités sous-jacentes d’une personne ou d’un groupe. Porter un sac à main de créateur ou porter une montre chère ne garantit pas que le porteur est riche.
Heureusement, le travail en anthropologie, en psychologie et en économie montre comment les gens – et par conséquent, des institutions comme les organes politiques – peuvent surmonter ce problème. Ce travail est connu sous le nom de théorie de la signalisation et explique comment et pourquoi la communication, ou comment nous pouvons appeler le passage des informations d’un signal à un récepteur, évolue même lorsque les individus qui communiquent sont en conflit.
Par exemple, les personnes se déplaçant entre les groupes peuvent avoir des raisons de mentir sur leur identité. Ils pourraient vouloir cacher quelque chose de désagréable dans leur propre passé. Ou ils pourraient prétendre être un parent d’une personne riche ou puissante dans une communauté. Le récent livre de Zadie Smith, « The Fraud », est une version fictive de ce thème populaire qui explore la vie aristocratique pendant l’Angleterre victorienne.
Pourtant, il n’est tout simplement pas possible de simuler certaines qualités. Une fraude peut prétendre être un aristocrate, un médecin ou un expert en IA. Les signaux que ces fraudes dégagent involontairement les donneront cependant au fil du temps. Un faux aristocrate ne simulera probablement pas assez efficacement son comportement ou son accent (les accents, entre autres signaux, sont difficiles à simuler pour ceux qui les connaissent).
La structure de la société est évidemment différente de celle d’il y a deux siècles, mais le problème, à la base, est le même – comme nous le pensons, est la solution. Bien qu’il existe des moyens pour une personne vraiment riche de prouver la richesse, une personne ou un groupe de confiance doit être en mesure de montrer qu’elle vaut la peine d’être confiée. La manière ou les manières possibles variera sans aucun doute d’un contexte à l’autre, mais nous pensons que les organismes politiques tels que les gouvernements doivent démontrer une volonté d’écouter et de répondre au public au sujet de leurs préoccupations.
Le projet Care.Data a été critiqué car il a été publié via des dépliants tombés aux portes des gens qui ne contenaient pas de désactivation. Cela n’a pas fait signaler au public un véritable désir de soulager les préoccupations des gens que les informations à leur sujet soient utilisées à mauvais escient ou vendues à but lucratif.
Le plan actuel autour de l’utilisation des données pour développer des algorithmes d’IA doit être différent. Nos institutions politiques et scientifiques ont le devoir de signaler leur engagement envers le public en les écoutant, et en le faisant, élaborez des politiques cohésives qui minimisent les risques pour les individus tout en maximisant les avantages potentiels pour tous.
La clé est de placer suffisamment de financement et d’efforts pour signaler – pour démontrer – la motivation honnête de s’engager avec le public sur leurs préoccupations. Le gouvernement et les organismes scientifiques ont le devoir d’écouter le public et pour expliquer comment ils le protégeront. Dire « Croyez-moi » ne suffit jamais. Vous devez montrer que vous en valez la peine.
