Apprendre à des robots à apprendre à d'autres robots

L’utilisation des outils d’IA est-elle une innovation ou une exploitation ? Trois façons de penser l'éthique

L’intelligence artificielle peut être utilisée d’innombrables façons, et les problèmes éthiques qu’elle soulève sont également innombrables.

Pensez aux « créateurs de contenu pour adultes » – ce n'est pas nécessairement le premier domaine qui vous vient à l'esprit. En 2024, il y a eu une augmentation du nombre d'influenceurs générés par l'IA sur Instagram : de faux modèles avec des visages créés par l'IA, attachés à des photos volées et à des vidéos de corps de vrais modèles. Non seulement les créateurs du contenu original n’ont pas consenti à ce que leurs images soient utilisées, mais ils n’ont en outre pas été rémunérés.

Dans tous les secteurs, les travailleurs sont confrontés à des questions éthiques plus immédiates quant à l’opportunité d’utiliser l’IA au quotidien. Lors d’un essai mené par le cabinet d’avocats britannique Ashurst, trois systèmes d’IA ont considérablement accéléré l’examen des documents, mais ont manqué des nuances juridiques subtiles que les avocats expérimentés pourraient saisir. De la même manière, les journalistes doivent équilibrer l’efficacité de l’IA pour résumer les recherches de fond avec la rigueur requise par les normes de vérification des faits.

Ces exemples mettent en évidence la tension croissante entre innovation et éthique. Que doivent les utilisateurs d’IA aux créateurs dont le travail constitue l’épine dorsale de ces technologies ? Comment naviguer dans un monde où l’IA remet en question le sens de la créativité et le rôle des humains dans celle-ci ?

En tant que doyen supervisant les bibliothèques universitaires, les programmes universitaires et la presse universitaire, je suis quotidiennement témoin de la manière dont les étudiants, le personnel et les professeurs sont aux prises avec l’IA générative. L’examen de trois écoles d’éthique différentes peut nous aider à aller au-delà des réactions instinctives pour répondre à des questions fondamentales sur la manière d’utiliser les outils d’IA avec honnêteté et intégrité.

Droits et devoirs

À la base, l’éthique déontologique s’interroge sur les devoirs fondamentaux que les individus ont les uns envers les autres : ce qui est bien ou mal, quelles qu’en soient les conséquences.

Appliquée à l’IA, cette approche se concentre sur les droits et obligations fondamentaux. Dans cette optique, nous devons examiner non seulement ce que l’IA nous permet de faire, mais aussi quelles responsabilités nous avons envers les autres personnes de nos communautés professionnelles.

Par exemple, les systèmes d’IA apprennent souvent en analysant de vastes collections d’œuvres créées par l’homme, ce qui remet en question les notions traditionnelles de droits créatifs. Un photographe dont le travail a été utilisé pour former un modèle d’IA pourrait se demander si son travail a été approprié sans compensation équitable – si la propriété fondamentale de son propre travail a été violée.

D’un autre côté, l’éthique déontologique met également l’accent sur les devoirs positifs des individus envers les autres – responsabilités que certains programmes d’IA peuvent contribuer à remplir. L'association à but non lucratif Tarjimly vise à utiliser une plateforme basée sur l'IA pour connecter les réfugiés avec des traducteurs bénévoles. L'outil d'IA de l'organisation fournit également une traduction en temps réel, que les volontaires humains peuvent réviser pour en vérifier l'exactitude.

Cette double focalisation sur le respect des droits des créateurs tout en remplissant leurs devoirs envers autrui illustre comment l’éthique déontologique peut guider une utilisation éthique de l’IA.

Les implications de l'IA

Une autre approche vient du conséquentialisme, une philosophie qui évalue les actions en fonction de leurs résultats. Cette perspective déplace l’attention des droits et responsabilités des individus vers les effets plus larges de l’IA. Les avantages potentiels de l’IA générative justifient-ils son impact économique et culturel ? L’IA fait-elle progresser l’innovation au détriment des moyens de subsistance créatifs ?

Cette tension éthique consistant à peser les avantages et les inconvénients alimente les débats et les poursuites judiciaires actuels. Des organisations telles que Getty Images ont engagé des poursuites judiciaires pour protéger le travail des contributeurs humains contre une formation non autorisée à l'IA. Certaines plateformes qui utilisent l’IA pour créer des images, telles que DeviantArt et Shutterstock, offrent aux artistes la possibilité de se désinscrire ou de recevoir une compensation, une évolution vers la reconnaissance des droits créatifs à l’ère de l’IA.

Les implications de l’adoption de l’IA vont bien au-delà des droits des créateurs individuels et pourraient remodeler fondamentalement les industries créatives. Les secteurs de l’édition, du divertissement et du design sont confrontés à une automatisation sans précédent, qui pourrait affecter les travailleurs tout au long du processus de production, de la conceptualisation à la distribution.

Ces perturbations ont suscité une résistance importante. En 2023, par exemple, les syndicats de scénaristes et d’acteurs ont lancé des grèves qui ont stoppé les productions hollywoodiennes.

Une approche conséquentialiste nous oblige toutefois à regarder au-delà des menaces économiques immédiates ou des droits et responsabilités des individus, pour examiner l’impact sociétal plus large de l’IA. Dans cette perspective plus large, le conséquentialisme suggère que les préoccupations concernant les préjudices sociaux doivent être mises en balance avec les avantages sociétaux potentiels.

Les outils d’IA sophistiqués transforment déjà des domaines tels que la recherche scientifique, accélérant la découverte de médicaments et les solutions au changement climatique. Dans le domaine de l’éducation, l’IA soutient l’apprentissage personnalisé des élèves en difficulté. Les petites entreprises et les entrepreneurs des régions en développement peuvent désormais rivaliser à l’échelle mondiale en accédant à des capacités de niveau professionnel autrefois réservées aux grandes entreprises.

Même les artistes doivent peser le pour et le contre de l’impact de l’IA : ce n’est pas seulement négatif. L’IA a donné naissance à de nouvelles façons d’exprimer la créativité, comme la musique et les arts visuels générés par l’IA. Ces technologies permettent de réaliser des compositions et des visuels complexes qui pourraient être difficiles à produire à la main, ce qui en fait un collaborateur particulièrement précieux pour les artistes handicapés.

Personnage pour l'ère de l'IA

L’éthique de la vertu, la troisième approche, s’interroge sur la manière dont l’utilisation de l’IA façonne les utilisateurs en tant que professionnels et personnes. Contrairement aux approches axées sur les règles ou les conséquences, ce cadre se concentre sur le caractère et le jugement.

Des cas récents illustrent les enjeux. Le recours d'un avocat aux citations juridiques générées par l'IA a conduit à des sanctions judiciaires, soulignant à quel point l'automatisation peut éroder la diligence professionnelle. Dans le domaine des soins de santé, la découverte de préjugés raciaux dans les chatbots d’IA médicale a contraint les prestataires à se demander comment l’automatisation pourrait compromettre leur engagement en faveur de soins équitables.

Ces échecs révèlent une vérité plus profonde : maîtriser l’IA nécessite de cultiver un bon jugement. L’intégrité professionnelle des avocats exige qu’ils vérifient les allégations générées par l’IA. L’engagement des médecins envers le bien-être des patients nécessite de remettre en question les recommandations de l’IA qui pourraient perpétuer les préjugés. Chaque décision d’utiliser ou de rejeter des outils d’IA façonne non seulement les résultats immédiats, mais aussi le caractère professionnel.

Les travailleurs individuels ont souvent un contrôle limité sur la manière dont leur lieu de travail met en œuvre l’IA. Il est donc d’autant plus important que les organisations professionnelles élaborent des lignes directrices claires. De plus, les individus ont besoin d'espace pour maintenir leur intégrité professionnelle dans le cadre des règles de leur employeur et exercer leur propre jugement.

Au-delà de la question : « L'IA peut-elle accomplir cette tâche ? » les organisations devraient réfléchir à la manière dont sa mise en œuvre pourrait affecter le jugement et la pratique professionnels des travailleurs. À l’heure actuelle, la technologie évolue plus rapidement que la sagesse collective dans son utilisation, ce qui rend la réflexion délibérée et la pratique fondée sur la vertu plus essentielles que jamais.

Tracer la voie à suivre

Chacun de ces trois cadres éthiques éclaire différents aspects du dilemme de l’IA de notre société.

La pensée fondée sur les droits met en évidence nos obligations envers les créateurs dont le travail forme les systèmes d’IA. Le conséquentialisme révèle à la fois les avantages plus larges de la démocratisation de l’IA et ses menaces potentielles, notamment pour les moyens de subsistance créatifs. L’éthique de la vertu montre comment les choix individuels concernant l’IA façonnent non seulement les résultats mais aussi le caractère professionnel.

Ensemble, ces perspectives suggèrent que l’utilisation éthique de l’IA nécessite plus que de nouvelles lignes directrices. Cela nécessite de repenser la manière dont le travail créatif est valorisé.

Le débat sur l’IA ressemble souvent à une bataille entre innovation et tradition. Mais ce cadre passe à côté du véritable défi : développer des approches qui honorent à la fois la créativité humaine et le progrès technologique et leur permettent de se renforcer mutuellement. À la base, cet équilibre dépend des valeurs.