Et si ChatGPT était bon pour l’éthique ?

Et si ChatGPT était bon pour l’éthique ?

De nombreuses personnes utilisent ChatGPT : les programmeurs informatiques écrivent du code avec, les étudiants font leurs devoirs avec et les enseignants planifient leurs cours avec. Et pourtant, l’essor du chatbot Open AI a également suscité de nombreuses préoccupations éthiques.

Pour en savoir plus, nous avons discuté avec Marc-Antoine Dilhac, professeur de philosophie à la Faculté des arts et des sciences de l’Université de Montréal qui a contribué à la rédaction de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle.

ChatGPT renforce-t-il la discrimination ?

La discrimination est un problème pour l’intelligence artificielle en général. Cela ne se limite pas à ChatGPT. Les préjugés liés au sexe observés dans ChatGPT sont similaires à ce que nous avons déjà vu dans le traitement traditionnel du langage naturel et les prédictions de saisie semi-automatique de Google. Par exemple, dans les traductions automatiques, les IA ont tendance à utiliser le masculin pour certaines professions et le féminin pour d’autres, de sorte que les médecins peuvent être automatiquement appelés « il » et les infirmières « elle ».

ChatGPT reproduit les préjugés sexistes dans les tests préexistants sur lesquels il est formé, car ils sont pour la plupart fondés sur des normes sociales. Si nous voulons que cela change, nous, en tant qu’êtres humains, devons changer notre façon de penser habituellement. Lorsque ChatGPT désigne les médecins comme « il », cela doit être reconnu comme le reflet de ce que nous disons nous-mêmes. Espérons que cela pourrait nous pousser à faire quelque chose pour réduire ces préjugés. En exposant ces préjugés, ChatGPT nous rend en fait service : il reflète nos propres préjugés, ce qui nous permet de savoir que nous les avons en premier lieu.

Quels sont les principaux défis éthiques que ChatGPT pose à la société ?

Je vois trois grands défis.

Le premier est éducatif, et c’est une chose à laquelle l’Université de Montréal a déjà commencé à réfléchir. Cela concerne l’avenir de l’apprentissage dans un environnement où les étudiants peuvent utiliser ChatGPT pour rédiger des textes et collecter des informations qui leur sont destinées. Les enseignants pourraient également utiliser ChatGPT pour corriger automatiquement les devoirs, ce que les établissements d’enseignement peuvent encourager pour réduire le temps consacré aux corrections. Mais cela pose la question de la responsabilité de l’évaluation des travaux des étudiants. Comment les commentaires s’intègrent-ils ? Quelle relation élève-enseignant souhaitons-nous construire ?

Le deuxième défi concerne le risque pour la propriété intellectuelle. ChatGPT et d’autres IA génératives sont formés sur des œuvres originales telles que des textes et des images (y compris des photographies et des peintures) pour créer un contenu synthétique pour lequel les créateurs de ces œuvres originales ne sont pas rémunérés. Cette question a de réelles implications juridiques et économiques qui pourraient non seulement décourager les gens de produire des œuvres artistiques, mais aussi décourager des institutions comme les universités de produire des connaissances.

Enfin, le troisième défi qui pourrait être exacerbé par ChatGPT est lié à la démocratie et à l’intégrité électorale. Cela a à voir avec la possibilité de produire des textes ciblant des individus pour influencer ou manipuler leurs convictions politiques. Je ne suis pas entièrement convaincu que cela représente un grand risque, car je pense que les gens sont plus facilement convaincus par les opinions d’autres êtres humains que par celles générées par la machine.

Mais il est vrai qu’on ne parvient pas toujours à identifier la source du contenu Internet et qu’il devient de plus en plus facile de produire des articles en masse. Les internautes pourraient être submergés d’informations, ce qui pourrait finir par affecter leur façon de penser. Des quantités massives de texte pourraient être produites et utilisées pour micro-cibler des individus d’une manière beaucoup plus précise que par le passé.

Vous avez participé à l’élaboration de la Déclaration de Montréal. Comment ses principes pourraient-ils conduire à une utilisation éthique de ChatGPT ?

Il existe au moins trois principes qui pourraient être suivis pour garantir que ChatGPT est utilisé de manière éthique et responsable.

Le premier principe fondamental à considérer est le respect de l’autonomie. Ce principe peut être adapté à différents niveaux d’utilisation de l’IA. Par exemple, lorsque des personnes comme des étudiants, des enseignants, des journalistes ou des avocats utilisent ChatGPT pour faire leur travail, ils mettent leur propre autonomie en danger. Le problème ici est que les gens délèguent leurs tâches, ce qui pourrait les conduire à perdre leur autonomie. Lorsque nous cessons de faire certaines choses nous-mêmes et que d’autres personnes ou technologies le font, nous devenons dépendants du travail accompli par l’autre partie, qui dans ce cas est l’IA.

L’utilisation de ChatGPT dans l’éducation soulève des questions sur la capacité des élèves à réfléchir de manière critique par eux-mêmes et sur la formation des enseignants, car les enseignants peuvent être moins susceptibles de vérifier ou de comprendre eux-mêmes les sources s’ils peuvent s’appuyer sur les résumés fournis par ChatGPT. Certaines utilisations de ChatGPT pourraient mettre en danger nos capacités cognitives et donc notre autonomie.

Le deuxième principe est la solidarité. Comme énoncé dans la Déclaration de Montréal, ce principe dit que nous devons constamment œuvrer au maintien de relations humaines de qualité et que l’IA ne doit être utilisée que pour les développer. Cela signifie que nous devons travailler avec l’IA plutôt que de lui déléguer des tâches. Nous devons également entretenir des relations interpersonnelles significatives, parfois nécessaires à certains rôles, comme les professions de soin.

Vous pourriez penser que fournir des services de santé mentale via ChatGPT va à l’encontre du principe de solidarité. Mais ChatGPT est déjà utilisé de cette manière. Cela pose un vrai problème puisque cela fait évidemment perdre de vue ce qu’est une relation thérapeutique. Les applications commerciales non contrôlées pourraient être désastreuses car elles sont construites sans compréhension des principes éthiques du développement responsable de l’IA. Dans ce cas, le principe en question concerne ce qu’est une relation thérapeutique, et plus largement une relation humaine de qualité.

Le troisième principe est la participation démocratique. Si nous ne comprenons pas comment fonctionne l’IA, si nous n’avons aucun contrôle sur la production de contenus, et si les contenus produits perturbent les interactions entre les êtres humains et diminuent la qualité du discours, alors nous sapons l’un des fondements de la démocratie : le capacité à prendre des décisions éclairées fondées sur un débat raisonnable avec nos concitoyens.

La manière dont le principe de participation démocratique est appliqué est cruciale dans ce contexte. Pour que les humains puissent garder le contrôle de l’IA, un certain niveau de transparence est nécessaire et l’utilisation de la technologie par le public doit être limitée. Les interfaces de programmation d’applications (API) qui permettent à des programmes comme ChatGPT d’être utilisés par une application tierce (telle que les applications de conseil en santé mentale) doivent être placées sous un contrôle strict.