Santé : le Garant de la vie privée lance un décalogue sur l’usage de l’IA
Le Garant de la vie privée a lancé un ensemble de règles pour la création de services de santé au niveau national grâce à des systèmes d’intelligence artificielle. Il y a trois principes clés : transparence des processus décisionnels, décisions automatisées supervisées par des humains, non-discrimination algorithmique. Les principes s’appuient sur le règlement et la jurisprudence du Conseil d’État.
Sur la base des indications de l’Autorité, le patient doit avoir le droit de savoir, également par le biais de campagnes de communication, s’il existe et quels processus décisionnels existent (par exemple, dans le domaine clinique ou politique de santé) basés sur des traitements automatisés effectués au moyen d’outils. de l’IA et recevoir des informations claires sur la logique utilisée pour prendre ces décisions.
Prévoir une supervision humaine
Le processus décisionnel doit inclure une supervision humaine qui permet au personnel soignant de vérifier, valider ou infirmer les traitements effectués par les outils d’IA. Il convient, prévient le Garant, que le responsable du traitement utilise des systèmes d’IA fiables qui réduisent les erreurs dues à des causes technologiques ou humaines et vérifie périodiquement leur efficacité, en mettant en œuvre des mesures techniques et organisationnelles adéquates. Cela vise également à atténuer les effets discriminatoires potentiels que le traitement de données inexactes ou incomplètes pourrait avoir sur la santé de la personne. Des données obsolètes ou inexactes, souligne l’Autorité, pourraient également influencer l’efficacité et l’exactitude des services que les systèmes d’IA entendent créer.
La nécessité d’un cadre réglementaire
Une attention particulière a été portée par le Garant à l’adéquation de la base juridique pour l’utilisation de l’intelligence artificielle. Le traitement des données de santé au moyen de techniques d’IA, effectué pour des raisons d’intérêt public dans le secteur de la santé, doit être prévu par un cadre réglementaire spécifique, qui identifie des mesures adéquates pour protéger les droits, libertés et intérêts légitimes des parties intéressées.
Conformément au cadre réglementaire du secteur, le Garant a également souligné la nécessité qu’avant de traiter les données de santé à l’aide des systèmes nationaux d’IA, une analyse d’impact est réalisée dans le but d’identifier les mesures appropriées pour protéger les droits et libertés des patients et garantir le respect des principes du règlement UE. En effet, un système national centralisé utilisant l’IA détermine un traitement systématique à grande échelle des données de santé qui relèvent des données « à haut risque », pour lesquelles l’analyse d’impact est obligatoire et doit être réalisée au niveau central pour permettre un examen global de l’adéquation et l’homogénéité des mesures adoptées.
Dans la description des traitements il faut également que les logiques algorithmiques utilisées pour « générer » les données et services, les métriques utilisées pour entraîner le modèle, les contrôles effectués pour vérifier la présence d’éventuels biais et la possibilité de leur correction.