Les pays appellent à l'action pour des règles sur l'utilisation de l'IA en temps de guerre

L’IA a le potentiel de révolutionner les soins de santé, mais nous devons d’abord faire face au risque de biais algorithmique

Crédit : domaine public Unsplash/CC0

L’intelligence artificielle (IA) évolue rapidement et deviendra un outil de soutien important dans les soins cliniques. La recherche suggère que les algorithmes d’IA peuvent détecter avec précision les mélanomes et prédire les futurs cancers du sein.

Mais avant que l’IA puisse être intégrée à une utilisation clinique de routine, nous devons relever le défi du biais algorithmique. Les algorithmes d’IA peuvent avoir des biais inhérents qui pourraient entraîner des problèmes de discrimination et de confidentialité. Les systèmes d’IA pourraient également prendre des décisions sans la surveillance ou l’intervention humaine requises.

Un exemple des effets potentiellement nocifs de l’IA provient d’un projet international qui vise à utiliser l’IA pour sauver des vies en développant des traitements médicaux révolutionnaires. Dans une expérience, l’équipe a inversé son « bon » modèle d’IA pour créer des options permettant à un nouveau modèle d’IA de « nuire ».

En moins de six heures de formation, l’algorithme d’IA inversé a généré des dizaines de milliers d’agents de guerre chimiques potentiels, dont beaucoup plus dangereux que les agents de guerre actuels. Il s’agit d’un exemple extrême concernant les composés chimiques, mais il sert de signal d’alarme pour évaluer les conséquences éthiques connues et éventuellement inconnaissables de l’IA.

L’IA dans les soins cliniques

En médecine, nous traitons les données les plus privées des gens et souvent des décisions qui changent la vie. Des cadres éthiques solides en matière d’IA sont impératifs.

Le projet australien sur l’épilepsie vise à améliorer la vie des gens et à rendre les soins cliniques plus largement disponibles. Sur la base de l’imagerie cérébrale avancée, des informations génétiques et cognitives de milliers de personnes atteintes d’épilepsie, nous prévoyons d’utiliser l’IA pour répondre à des questions actuellement sans réponse.

Les crises de cette personne vont-elles continuer ? Quel médicament est le plus efficace ? La chirurgie cérébrale est-elle une option de traitement viable? Ce sont des questions fondamentales auxquelles la médecine moderne peine à répondre.

En tant que responsable IA de ce projet, ma principale préoccupation est que l’IA évolue rapidement et que la surveillance réglementaire est minimale. Ces questions expliquent pourquoi nous avons récemment établi un cadre éthique pour l’utilisation de l’IA comme outil de soutien clinique. Ce cadre vise à garantir que nos technologies d’IA sont ouvertes, sûres et dignes de confiance, tout en favorisant l’inclusivité et l’équité dans les soins cliniques.

Alors, comment mettre en œuvre l’éthique de l’IA en médecine pour réduire les biais et garder le contrôle sur les algorithmes ? Le principe informatique « garbage in, garbage out » s’applique à l’IA. Supposons que nous collectons des données biaisées à partir de petits échantillons. Nos algorithmes d’IA seront probablement biaisés et non reproductibles dans un autre contexte clinique.

Des exemples de biais ne sont pas difficiles à trouver dans les modèles d’IA contemporains. Les grands modèles linguistiques populaires (ChatGPT par exemple) et les modèles de diffusion latente (DALL-E et Stable Diffusion) montrent comment des biais explicites concernant le sexe, l’ethnicité et le statut socio-économique peuvent se produire.

Les chercheurs ont découvert que de simples invites utilisateur génèrent des images perpétuant les stéréotypes ethniques, sexués et de classe. Par exemple, une invite pour un médecin génère principalement des images de médecins de sexe masculin, ce qui est incohérent avec la réalité car environ la moitié de tous les médecins des pays de l’OCDE sont des femmes.

Mise en œuvre sécurisée de l’IA médicale

La solution pour prévenir les préjugés et la discrimination n’est pas triviale. Permettre l’égalité en matière de santé et favoriser l’inclusivité dans les études cliniques sont probablement parmi les principales solutions pour lutter contre les biais dans l’IA médicale.

Fait encourageant, la Food and Drug Administration des États-Unis a récemment proposé de rendre la diversité obligatoire dans les essais cliniques. Cette proposition représente un pas vers des études cliniques moins biaisées et basées sur la communauté.

Un autre obstacle au progrès est le financement limité de la recherche. Les algorithmes d’IA nécessitent généralement des quantités importantes de données, ce qui peut être coûteux. Il est crucial d’établir des mécanismes de financement améliorés qui fournissent aux chercheurs les ressources nécessaires pour recueillir des données cliniquement pertinentes adaptées aux applications de l’IA.

Nous soutenons également que nous devrions toujours connaître le fonctionnement interne des algorithmes d’IA et comprendre comment ils parviennent à leurs conclusions et recommandations. Ce concept est souvent appelé « explicabilité » en IA. Il se rapporte à l’idée que les humains et les machines doivent travailler ensemble pour des résultats optimaux.

Nous préférons considérer la mise en œuvre de la prédiction dans les modèles comme une intelligence « augmentée » plutôt qu' »artificielle » – les algorithmes devraient faire partie du processus et les professions médicales doivent garder le contrôle de la prise de décision.

En plus d’encourager l’utilisation d’algorithmes explicables, nous soutenons une science transparente et ouverte. Les scientifiques devraient publier les détails des modèles d’IA et leur méthodologie pour améliorer la transparence et la reproductibilité.

De quoi avons-nous besoin à Aotearoa en Nouvelle-Zélande pour assurer la mise en œuvre sûre de l’IA dans les soins médicaux ? Les préoccupations en matière d’éthique de l’IA sont principalement dirigées par des experts dans le domaine. Cependant, des réglementations ciblées sur l’IA, telles que la loi sur l’intelligence artificielle de l’UE, ont été proposées, répondant à ces considérations éthiques.

La loi européenne sur l’IA est la bienvenue et protégera les personnes travaillant au sein de « l’IA sûre ». Le gouvernement britannique a récemment publié son approche proactive de la réglementation de l’IA, servant de modèle pour d’autres réponses gouvernementales à la sécurité de l’IA.

À Aotearoa, nous plaidons pour l’adoption d’une position proactive plutôt que réactive vis-à-vis de la sécurité de l’IA. Il établira un cadre éthique pour l’utilisation de l’IA dans les soins cliniques et d’autres domaines, produisant une IA interprétable, sécurisée et impartiale. Par conséquent, notre confiance grandira dans le fait que cette technologie puissante profite à la société tout en la protégeant des dommages.