L’IA crée de fausses affaires judiciaires et fait son chemin dans de véritables salles d’audience, avec des résultats désastreux
Nous avons vu des images profondément fausses et explicites de célébrités, créées par l’intelligence artificielle (IA). L’IA a également joué un rôle dans la création de musique, de voitures de course sans conducteur et dans la diffusion de fausses informations, entre autres.
Il n’est donc pas surprenant que l’IA ait également un fort impact sur nos systèmes juridiques.
Il est bien connu que les tribunaux doivent trancher les litiges sur la base de la loi, qui est présentée au tribunal par les avocats dans le cadre du dossier d'un client. Il est donc très préoccupant que de fausses lois, inventées par l'IA, soient utilisées dans des litiges juridiques.
Non seulement cela pose des problèmes de légalité et d’éthique, mais cela menace également de saper la confiance dans les systèmes juridiques mondiaux.
Comment naissent les fausses lois ?
Il ne fait aucun doute que l’IA générative est un outil puissant doté d’un potentiel de transformation pour la société, notamment dans de nombreux aspects du système juridique. Mais son utilisation comporte des responsabilités et des risques.
Les avocats sont formés pour appliquer soigneusement leurs connaissances et leur expérience professionnelles et ne prennent généralement pas de grands risques. Cependant, certains avocats (et plaideurs non représentés) imprudents ont été surpris par l’intelligence artificielle.
Les modèles d’IA sont formés sur des ensembles de données massifs. Lorsqu'un utilisateur le demande, il peut créer un nouveau contenu (à la fois textuel et audiovisuel).
Bien que le contenu généré de cette manière puisse paraître très convaincant, il peut également être inexact. C'est le résultat de la tentative du modèle d'IA de « combler les lacunes » lorsque ses données d'entraînement sont inadéquates ou erronées, ce qui est communément appelé « hallucination ».
Dans certains contextes, les hallucinations génératives de l’IA ne constituent pas un problème. En effet, cela peut être considéré comme un exemple de créativité.
Mais si l’IA hallucine ou crée du contenu inexact qui est ensuite utilisé dans des processus juridiques, cela constitue un problème, en particulier si l’on y ajoute les contraintes de temps qui pèsent sur les avocats et le manque d’accès aux services juridiques pour beaucoup.
Cette puissante combinaison peut entraîner de la négligence et des raccourcis dans la recherche juridique et la préparation des documents, créant potentiellement des problèmes de réputation pour la profession juridique et un manque de confiance du public dans l’administration de la justice.
Ça arrive déjà
Le « faux cas » d’IA générative le plus connu est l’affaire américaine Mata contre Avianca de 2023, dans laquelle des avocats ont soumis un mémoire contenant de faux extraits et citations de cas à un tribunal de New York. Le dossier a été étudié à l'aide de ChatGPT.
Les avocats, ignorant que ChatGPT peut halluciner, n’ont pas vérifié que les cas existaient réellement. Les conséquences furent désastreuses. Une fois l'erreur découverte, le tribunal a rejeté le dossier de leur client, a sanctionné les avocats pour mauvaise foi, leur a infligé une amende ainsi qu'à leur cabinet et a exposé leurs actions à l'examen public.
Malgré une publicité négative, d’autres faux exemples de cas continuent de faire surface. Michael Cohen, ancien avocat de Donald Trump, a présenté ses propres cas d'avocat générés par Google Bard, un autre chatbot à IA générative. Il croyait qu'ils étaient réels (ils ne l'étaient pas) et que son avocat les vérifierait (il ne l'a pas fait). Son avocat a inclus les cas dans un mémoire déposé auprès de la Cour fédérale des États-Unis.
De faux cas ont également fait surface dans des affaires récentes au Canada et au Royaume-Uni.
Si cette tendance n’est pas maîtrisée, comment pouvons-nous garantir que l’utilisation imprudente de l’IA générative ne sape pas la confiance du public dans le système juridique ? Le manquement systématique des avocats à faire preuve de prudence lorsqu'ils utilisent ces outils peut induire en erreur et encombrer les tribunaux, nuire aux intérêts des clients et, de manière générale, porter atteinte à l'État de droit.
Que fait-on à ce sujet ?
Partout dans le monde, les régulateurs juridiques et les tribunaux ont réagi de diverses manières.
Plusieurs barreaux et tribunaux d’État américains ont publié des orientations, des avis ou des ordonnances sur l’utilisation de l’IA générative, allant de l’adoption responsable à une interdiction pure et simple.
Les barreaux du Royaume-Uni et de la Colombie-Britannique, ainsi que les tribunaux de Nouvelle-Zélande, ont également élaboré des lignes directrices.
En Australie, la NSW Bar Association dispose d’un guide génératif sur l’IA destiné aux avocats. La Law Society of NSW et le Law Institute of Victoria ont publié des articles sur l'utilisation responsable, conformément aux règles de conduite des avocats.
De nombreux avocats et juges, tout comme le grand public, auront une certaine compréhension de l’IA générative et pourront reconnaître à la fois ses limites et ses avantages. Mais il y en a d’autres qui n’en sont peut-être pas aussi conscients. Les conseils sont sans aucun doute utiles.
Mais une approche obligatoire est nécessaire. Les avocats qui utilisent des outils d’IA générative ne peuvent pas les considérer comme un substitut à l’exercice de leur propre jugement et de leur propre diligence, et doivent vérifier l’exactitude et la fiabilité des informations qu’ils reçoivent.
En Australie, les tribunaux devraient adopter des notes de pratique ou des règles définissant les attentes lorsque l’IA générative est utilisée dans un litige. Les règles des tribunaux peuvent également guider les plaideurs non représentés et indiqueraient au public que nos tribunaux sont conscients du problème et qu’ils s’y attaquent.
La profession juridique pourrait également adopter des orientations formelles pour promouvoir l’utilisation responsable de l’IA par les avocats. À tout le moins, la compétence technologique devrait devenir une exigence de la formation juridique continue des avocats en Australie.
Fixer des exigences claires pour l’utilisation responsable et éthique de l’IA générative par les avocats australiens encouragera une adoption appropriée et renforcera la confiance du public dans nos avocats, nos tribunaux et l’administration globale de la justice dans ce pays.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.