Des affaires « hallucinées » affectent la carrière des avocats. Ils doivent être formés à l’utilisation de l’IA

Des affaires « hallucinées » affectent la carrière des avocats. Ils doivent être formés à l’utilisation de l’IA

L’intelligence artificielle générative, qui produit du contenu original en s’appuyant sur de vastes ensembles de données existantes, a été saluée comme un outil révolutionnaire pour les avocats. De la rédaction de contrats à la synthèse de la jurisprudence, les outils d'IA générative tels que ChatGPT et Lexis+ AI promettent rapidité et efficacité.

Mais la justice anglaise voit désormais un côté plus sombre de l’IA générative. Cela inclut les cas fabriqués de toutes pièces, les citations inventées et les citations trompeuses figurant dans les documents judiciaires.

En tant que personne qui étudie la manière dont la technologie et le droit interagissent, je soutiens qu’il est essentiel que les avocats apprennent comment utiliser l’IA générative et comment ne pas l’utiliser. Les avocats doivent pouvoir éviter le risque de sanctions en cas de violation des règles, mais aussi le développement d’un système juridique qui risque de trancher des questions de justice sur la base d’une jurisprudence fabriquée.

Le 6 juin 2025, la Haute Cour a rendu un jugement historique dans deux affaires distinctes : Frederick Ayinde contre The London Borough of Haringey et Hamad Al-Haroun contre Qatar National Bank QPSC et QNB Capital LLC.

Le tribunal a réprimandé un élève avocat (stagiaire) et un solicitor après que leurs conclusions contenaient une jurisprudence fictive et inexacte. Les juges ont été clairs : « les outils d’intelligence artificielle générative disponibles gratuitement… ne sont pas capables de mener des recherches juridiques fiables ».

En tant que tel, l’utilisation de résultats non vérifiés de l’IA ne peut plus être excusée comme une erreur ou un oubli. Les avocats, débutants ou chevronnés, sont entièrement responsables de ce qu’ils soumettent au tribunal.

Une jurisprudence hallucinée

Les « hallucinations » de l’IA – la génération confiante d’informations inexistantes ou mal attribuées – sont bien documentées. Les affaires juridiques ne font pas exception. Des recherches ont récemment révélé que les taux d'hallucinations varient entre 58 % et 88 % en réponse à des questions juridiques spécifiques, souvent précisément sur le type de problèmes que les avocats sont invités à résoudre.

Ces erreurs sont désormais sorties de l’écran et ont donné lieu à de véritables procédures judiciaires. Dans l'affaire Ayinde, l'avocat stagiaire a cité un cas qui n'existait pas du tout. L’exemple erroné avait été attribué à tort à un véritable numéro de dossier provenant d’une affaire complètement différente.

À Al-Haroun, un avocat a répertorié 45 dossiers fournis par son client. Parmi eux, 18 étaient fictifs et de nombreux autres étaient hors de propos. L'assistant judiciaire est cité dans le jugement comme disant : « La grande majorité des autorités sont inventées ou incomprises ».

Ces incidents mettent en lumière une profession confrontée à une véritable tempête : des praticiens débordés, des outils d’IA de plus en plus puissants mais peu fiables et des tribunaux qui ne sont plus disposés à traiter les erreurs comme des accidents. Pour les jeunes avocats, les conséquences sont désastreuses.

Beaucoup expérimentent l’IA par nécessité ou par curiosité. Cependant, sans la formation nécessaire pour détecter les hallucinations, les nouveaux avocats risquent de nuire à leur réputation avant que leur carrière n’ait complètement commencé.

La Haute Cour a adopté une approche disciplinaire, imputant directement la responsabilité à l'individu et à ses supérieurs. Cela soulève une question pressante. Les jeunes avocats sont-ils trop sévèrement punis pour ce qui constitue, au moins en partie, un manque de formation et de supervision ?

L'éducation comme prévention

Les facultés de droit enseignent depuis longtemps les méthodes de recherche, l’éthique et la pratique des citations. Ce qui est nouveau, c’est la nécessité d’encadrer ces mêmes compétences autour de l’IA générative.

Alors que de nombreuses facultés de droit et universités explorent l’IA dans leurs modules ou créent de nouveaux modules consacrés à l’IA, on observe une tendance plus large à considérer la manière dont l’IA change le secteur juridique dans son ensemble.

Les étudiants doivent apprendre pourquoi l’IA produit des hallucinations, comment concevoir des invites de manière responsable, comment vérifier les résultats par rapport à des bases de données faisant autorité et quand l’utilisation de tels outils peut être inappropriée.

L'insistance de la Haute Cour sur la responsabilité est justifiée. L’intégrité de la justice dépend de citations exactes et d’un plaidoyer honnête. Mais la solution ne peut pas reposer uniquement sur la sanction.

Si l’IA fait partie de la pratique juridique, alors la formation et l’alphabétisation en IA doivent faire partie de la formation juridique. Les organismes de réglementation, les organismes professionnels et les universités partagent le devoir collectif de veiller à ce que les jeunes avocats ne soient pas laissés apprendre par l’erreur ou dans l’environnement le plus impitoyable qu’est la salle d’audience.

Des problèmes similaires ont été soulevés par des professionnels non juridiques. Dans une affaire civile à Manchester, un plaideur en personne a admis s'être appuyé sur ChatGPT pour générer des autorités judiciaires à l'appui de son argument. L'individu est revenu au tribunal avec quatre citations, une entièrement fabriquée et trois avec des noms de cas authentiques mais avec des citations fictives qui leur étaient attribuées.

Même si les arguments semblaient légitimes, un examen plus approfondi par l'avocat de la partie adverse a révélé que les paragraphes n'existaient pas. Le juge a reconnu que le justiciable avait été induit en erreur par inadvertance par l’outil d’IA et n’a imposé aucune sanction. Cela montre à la fois les risques liés à l’introduction de contenus non vérifiés générés par l’IA dans les procédures et les difficultés rencontrées par les parties non représentées dans la navigation dans les procédures judiciaires.

Le message d'Ayinde et d'Al-Haroun est simple mais profond : l'utilisation de GenAI ne réduit pas le devoir professionnel d'un avocat, mais le renforce. Pour les jeunes avocats, cette obligation arrivera dès le premier jour. Le défi pour les enseignants du droit est de préparer les étudiants à cette réalité, en intégrant la vérification de l’IA, la transparence et le raisonnement éthique dans le programme.