Un outil utile mais imparfait

Un outil utile mais imparfait

Les générateurs de contenu IA comme ChatGPT ne remplaceront jamais les avocats et les juges, mais ils sont de plus en plus utilisés dans le domaine juridique.

Il y a déjà beaucoup d’enthousiasme quant à ce que ces outils peuvent faire en termes d’interprétation de la loi, d’accès à la justice et d’éducation sur les questions juridiques, de rédaction de contrats et de documents juridiques, d’offre d’aide juridique, d’aide à la prise de décision et de facilitation des communications avocat-client. .

Mais l’arrivée de ChatGPT et des applications qui fonctionnent avec lui soulève deux types de questions sur la manière de le contrôler et de l’utiliser, selon les professeurs Nicolas Vermeys et Karim Benyekhlef de la Faculté de droit de l’Université de Montréal.

Dépend de la juridiction et du territoire

Le premier problème, selon Vermeys, est que contrairement à la médecine ou à d’autres domaines scientifiques, le droit est une discipline qui s’applique à une région ou un territoire spécifique.

« Par exemple, le droit pénal canadien ne s’applique qu’au Canada, tout comme le droit civil québécois ne s’applique qu’au Québec », a-t-il déclaré.

Ainsi, même si les générateurs de contenu IA peuvent être formés, il existe un risque réel d’obtenir des informations juridiques erronées de l’outil, « d’autant plus que le Québec est sous-représenté dans les ensembles de données juridiques utilisés pour entraîner ces algorithmes », a-t-il ajouté.

La conception même d’outils comme ChatGPT a créé un autre problème», a déclaré Vermeys, qui dirige également le Centre de recherche en droit public de l’UdeM.

« ChatGPT a été conçu pour fournir la réponse la plus probable à une question, pas la meilleure réponse. Cela signifie que ses résultats pourraient être faux. Lorsque je lui ai demandé de citer mes cinq études publiées les plus importantes, il m’a renvoyé à quatre qui n’existaient pas. et un cinquième qui n’était même pas le mien.

L’arrivée des générateurs de contenu IA pose la question du contrôle du contenu fourni par les logiciels.

« Entre autres choses, qui est responsable si ChatGPT utilise du contenu protégé par le droit d’auteur ? demanda Vermeys. « Et qui est responsable si ces outils fournissent une réponse incluant les informations personnelles d’une personne ? »

Une intelligence améliorée plutôt qu’artificielle

Le professeur Karim Benyekhlef partage l’avis de son collègue sur les risques que représente l’IA générative dans le domaine du droit, mais il estime néanmoins que le logiciel peut être utilisé à bon escient.

« Ce type d’outil peut améliorer l’accès à la justice en donnant aux gens de l’information sur leurs droits, comme l’outil Justicebot que nous avons développé au Laboratoire de cyberjustice de l’UdeM », a déclaré Benyekhlef, directeur du laboratoire.

Le laboratoire a également développé PARLe, la première plateforme de résolution de conflits en ligne, qui a résolu directement 65 % des litiges qui lui ont été soumis.

« Lorsque PARLe n’est pas en mesure de résoudre un différend par lui-même, un médiateur intervient et a accès à un outil de prise de décision qui signale les déclarations désobligeantes faites par les parties et suggère des alternatives et des réponses plus polies », a déclaré Benyekhlef. « C’est pourquoi je pense qu’il est plus approprié de parler d’intelligence améliorée plutôt que d’intelligence artificielle. »

Mais Benyekhlef souligne également que ces outils et robots sont utiles pour les conflits de consommation, de travail ou de voisinage – il s’agit essentiellement de problèmes courants et à faibles enjeux.

Les experts juridiques sont là pour rester

Pour les affaires complexes, les avocats et les juges doivent néanmoins être impliqués.

« Compte tenu des risques de fabrication posés par l’IA générative – qui peut par exemple inventer la jurisprudence de toutes pièces, comme cela s’est produit aux États-Unis – la contribution d’experts juridiques est toujours nécessaire », a-t-il déclaré.

Comme Vermeys, Benyekhlef a souligné que le droit est le produit de son environnement qui évolue au fil du temps. Les deux professeurs estiment que les générateurs de contenu IA sont incapables de prendre en compte la perspective et la prévoyance impliquées dans une argumentation.

« Beaucoup de gens pensent que l’IA traite les gens de manière égale et élimine donc complètement les préjugés », a déclaré Benyekhlef. « Mais traiter tout le monde comme s’ils étaient pareils, en règle générale et sans possibilité d’interprétation nuancée, n’est pas la même chose que de les traiter de manière égale. La justice doit prendre en compte l’élément humain.

« En ce qui concerne l’égalité de traitement, je ne crois pas qu’un algorithme puisse faire la distinction entre une mère célibataire qui vole une miche de pain pour ses enfants et un adolescent privilégié qui fait exactement la même chose juste pour se montrer devant ses amis.  »