OpenAI lance un nouvel outil pour dissuader la triche sur sa propre plateforme

La loi s'appuie sur le fait d'être précis. L'IA perturbe cela

L'utilisation de l'IA se propage dans toutes les professions et toutes les industries – et le droit ne fait pas exception.

Les avocats ont été innovants dans leur utilisation de modèles de grandes langues (LLM), mais nous voyons également des exemples d'entre eux étant pris par les capacités linguistiques de l'IA générative.

Ne comptez pas sur l'IA

Les modèles d'IA raffinés, combinés à des systèmes de récupération ou de «chiffon», ont la capacité de résumer, d'examiner et d'analyser les documents.

Mais de plus en plus, les tribunaux et les régulateurs juridiques avertissent les avocats de ne pas compter sur une IA générative sans vérifier leur travail – et dans certains cas, ils leur conseillent de ne pas l'utiliser du tout.

En fait, nous avons déjà vu les tribunaux réprimandés des avocats pour avoir soumis des documents juridiques qui incluent le contenu fabriqué par l'IA.

Et en Australie, les tribunaux eux-mêmes ont été prudents quant à l'utilisation de la technologie.

Signification ordinaire et IA générative

Certains tribunaux du monde entier expérimentent l'utilisation de l'IA générative.

En Angleterre, Lord Justice Birss a informé qu'il avait utilisé Chatgpt pour résumer une zone de la loi. Dans le cas américain de Snell contre United Specialty Insurance CoLe juge Kevin Newsom a utilisé Chatgpt pour déterminer la signification simple et ordinaire d'un terme litigieux dans une police d'assurance.

Lors de l'interprétation des documents pour décider de leur signification juridique, les tribunaux se tournent généralement vers le sens ordinaire des mots, ainsi que le contexte dans lequel ils sont utilisés.

Mais comment les juges déterminent-ils le sens ordinaire d'un mot?

Une approche consiste à demander des «gens ordinaires».

Pendant la majeure partie du XIXe siècle, la Cour suprême des États-Unis a obligé que ses juges portent des affaires auditives de la ville à la ville pour leur donner une exposition aux citoyens et des conditions de tous les jours en dehors de la capitale.

Les juges consultent souvent un dictionnaire. Ou peut-être qu'ils demandent à chatgpt.

Un outil parmi beaucoup

Revenons à l'affaire Snell aux États-Unis mentionné plus tôt. À la mi-2024, le juge Kevin Newsom a été chargé de décider si la couverture d'une police d'assurance de « paysage » comprenait l'installation d'un trampoline.

Justice Newsom a vérifié trois dictionnaires et a trouvé trois réponses très différentes.

Son honneur considérait un sentiment « viscéral et intestinal », pour décider que cela ne semblait pas très légalement convaincant. Au lieu de cela, son honneur a demandé à Chatgpt.

La possibilité d'une IA générative fournissant une «signification ordinaire» est à certains égards convaincante.

Après tout, ces modèles sont formés sur de vastes corpus de la langue anglaise – livres, journaux, invites d'utilisateurs – couverte toutes sortes de discours dans toutes sortes de contextes.

Leur lecture n'est pas limitée par les antécédents, les intérêts ou l'âge. En ce sens, Chatgpt pourrait être considéré comme représentant un amalgame de la personne ordinaire d'une manière que les juges, ou même les compilateurs de dictionnaires, ne le sont pas.

Cela dit, le juge a fini par paraître une note de prudence. De l'avis de son honneur, les LLM ne devraient être que «un seul outil parmi beaucoup», tenu et testé avec le contexte historique, le bon sens et les significations du dictionnaire.

Pas un oracle de sens ordinaire

Il existe également des différences importantes entre l'IA générative et les dictionnaires, qui limitent leur rôle d'oracles de signification ordinaire.

Comme de nombreux avocats l'ont découvert, non seulement les hallucinations génératrices de l'IA, mais cela peut également être sycophantique, fournissant la réponse qui, comme suggéré par le contexte, est ce que la personne qui fournit l'invite veut entendre.

Cela signifie que les outils sont susceptibles d'offrir des réponses confiantes mais ruines en essayant d'imiter la parole humaine.

Une autre préoccupation concerne la transparence.

Nous savons comment les dictionnaires sont compilés et le processus est scrupuleusement documenté. Nous n'avons aucune compréhension claire des données de formation utilisées dans les modèles d'IA à usage général gratuit.

Et, contrairement aux dictionnaires, qui utilisent un processus collaboratif pour compiler le contenu, une grande partie des données de formation d'IA est souvent utilisée à l'insu ou au consentement de l'auteur original.

Du sens commun au jugement

Les tribunaux, les entreprises, les gouvernements et les entreprises continuent d'expérimenter l'IA générative. Les entreprises et les développeurs technologiques continuent de trouver des moyens d'affiner et d'améliorer leurs résultats.

Pour les avocats et les tribunaux, les questions de précision. Mais il en va de même pour d'autres valeurs, comme la transparence, l'équité et la responsabilité.

Ceux-ci font partie du cadre d'IA éthique d'Australie et central de l'administration de la justice.

La responsabilité principale d'un juge dans l'interprétation des textes est restée inchangée à travers les siècles: résoudre la tension entre le langage juridique clinique et la nature souvent de nos réalités vécues.

L'attrait des sorties génératrices de l'IA soutenues par les données ne devrait pas distraire du fait que ces décisions reposent invariablement sur le jugement et le contexte.

Bien qu'il puisse présenter de nouvelles informations dans la prise de ces décisions, l'IA générative ne peut pas être traitée comme plus autoritaire ou fiable que toute autre source – et certainement pas plus éthiquement convaincante.