Les dangers de l'utilisation de ChatGPT dans la pratique juridique en Afrique du Sud
Une affaire judiciaire sud-africaine a fait la une des journaux pour toutes les mauvaises raisons en janvier 2025. L'équipe juridique dans l'affaire Mavundla contre MEC : Département du gouvernement coopératif et des affaires traditionnelles du KwaZulu-Natal et autres s'était appuyée sur une jurisprudence qui n'existait tout simplement pas. Il a été généré par ChatGPT, un chatbot d'intelligence artificielle (IA) générative développé par OpenAI.
Seules deux des neuf autorités judiciaires soumises à la Haute Cour étaient authentiques. Le reste était des « hallucinations » fabriquées par l’IA. Le tribunal a qualifié cette conduite d'« irresponsable et non professionnelle » et a renvoyé l'affaire au Legal Practice Council, l'organisme statutaire qui réglemente les praticiens du droit en Afrique du Sud, pour enquête.
Ce n’était pas la première fois que les tribunaux sud-africains étaient confrontés à un tel incident. Parker contre Forsyth en 2023 traitait également d'une fausse jurisprudence produite par ChatGPT. Mais le juge s’est montré plus indulgent dans ce cas, ne trouvant aucune intention d’induire en erreur. L’arrêt Mavundla marque un tournant : les tribunaux perdent patience face aux praticiens du droit qui utilisent l’IA de manière irresponsable.
Nous sommes des universitaires en droit qui effectuons des recherches sur l’utilisation croissante de l’IA, en particulier de l’IA générative, dans la recherche et l’enseignement juridiques. Si ces technologies offrent des outils puissants pour améliorer l’efficacité et la productivité, elles présentent également de sérieux risques lorsqu’elles sont utilisées de manière irresponsable.
Les futurs juristes qui abusent des outils d’IA sans conseils appropriés ni fondements éthiques risquent de graves conséquences professionnelles, avant même le début de leur carrière. Les facultés de droit devraient doter leurs étudiants des compétences et du jugement nécessaires pour utiliser les outils d’IA de manière responsable. Mais la plupart des institutions ne sont toujours pas préparées au rythme auquel l’IA est adoptée.
Très peu d’universités disposent de politiques ou de formations formelles sur l’IA. Les étudiants se retrouvent sans guide sur ce terrain en évolution rapide. Notre travail nécessite une approche proactive et structurée de l’enseignement de l’IA dans les facultés de droit.
Quand la technologie devient un handicap
L'avocate dans l'affaire Mavundla a admis qu'elle n'avait pas vérifié les citations et s'était plutôt appuyée sur les recherches effectuées par un collègue junior. Ce collègue, un candidat avocat, a affirmé avoir obtenu le matériel à partir d’un outil de recherche en ligne. Bien qu’elle ait nié avoir utilisé ChatGPT, ce modèle correspond à des incidents mondiaux similaires où des avocats ont déposé sans le savoir des jugements générés par l’IA.
Dans l’affaire américaine Park contre Kim de 2024, l’avocate a cité une jurisprudence inexistante dans son mémoire en réponse, qui, a-t-elle admis, avait été généré à l’aide de ChatGPT. Dans l'affaire canadienne Zhang contre Chen de 2024, l'avocat a déposé un avis de demande contenant deux autorités de cas inexistantes fabriquées par ChatGPT.
Le tribunal de Mavundla a été sans équivoque : quelle que soit l’évolution de la technologie, les avocats restent responsables de garantir que chaque source qu’ils présentent est exacte. La pression de la charge de travail ou l’ignorance des risques liés à l’IA ne constituent pas une défense.
Le juge a également critiqué l'avocat superviseur pour ne pas avoir vérifié les documents avant de les déposer. L’épisode a mis en évidence un principe éthique plus large : les avocats chevronnés doivent former et superviser correctement leurs collègues débutants.
La leçon ici s’étend bien au-delà d’un seul cabinet d’avocats. L’intégrité, l’exactitude et l’esprit critique ne sont pas des extras facultatifs dans la profession juridique. Ce sont des valeurs fondamentales qui doivent être enseignées et mises en pratique dès le début, pendant la formation juridique.
La salle de classe est la première salle d'audience
Le cas Mavundla devrait servir d’avertissement aux universités. Si les praticiens du droit expérimentés peuvent tomber dans les pièges de l’IA en matière de droit, les étudiants qui apprennent encore à rechercher et à raisonner peuvent également le faire.
Les outils d'IA générative comme ChatGPT peuvent être de puissants alliés : ils peuvent résumer des cas, rédiger des arguments et analyser des textes complexes en quelques secondes. Mais ils peuvent aussi fabriquer des informations en toute confiance. Parce que les modèles d’IA ne « savent » pas toujours quand ils ont tort, ils produisent un texte qui semble faire autorité mais qui peut être entièrement faux.
Pour les étudiants, les dangers sont doubles. Premièrement, une dépendance excessive à l’égard de l’IA peut freiner le développement de compétences essentielles en recherche. Deuxièmement, cela peut conduire à de graves fautes académiques ou professionnelles. Un étudiant qui soumet du contenu fabriqué par l’IA pourrait faire l’objet de mesures disciplinaires à l’université et d’une atteinte à sa réputation qui le suivrait dans sa carrière juridique.
Dans notre article, nous soutenons qu’au lieu d’interdire purement et simplement les outils d’IA, les facultés de droit devraient apprendre aux étudiants à les utiliser de manière responsable. Cela signifie développer une « culture de l’IA » : la capacité de remettre en question, de vérifier et de contextualiser les informations générées par l’IA. Les étudiants doivent apprendre à traiter les systèmes d’IA comme des assistants et non comme des autorités.
Dans la pratique juridique sud-africaine, l’autorité fait traditionnellement référence à des sources reconnues telles que la législation, la jurisprudence et les commentaires universitaires, que les avocats citent pour étayer leurs arguments. Ces sources sont accessibles via des bases de données juridiques et des rapports juridiques établis, un processus qui, bien que long, garantit l'exactitude, la responsabilité et le respect de l'état de droit.
Des facultés de droit aux tribunaux
Les enseignants du droit peuvent intégrer des connaissances en IA dans les cours existants sur la méthodologie de recherche, l’éthique professionnelle et la rédaction juridique. Les exercices pourraient inclure la vérification des résumés générés par l’IA par rapport à des jugements réels ou l’analyse des implications éthiques du recours à des arguments produits par des machines.
Enseigner l’utilisation responsable de l’IA ne consiste pas simplement à éviter l’embarras au tribunal. Il s’agit de protéger l’intégrité du système judiciaire lui-même. Comme on l’a vu dans l’affaire Mavundla, l’utilisation non critique de l’IA par un candidat avocat a conduit à une enquête professionnelle, à un examen minutieux du public et à une atteinte à la réputation du cabinet.
Les risques financiers sont également réels. Les tribunaux peuvent ordonner aux avocats de payer les frais de leur poche en cas de faute professionnelle grave. À l’ère du numérique, où les jugements des tribunaux et les reportages des médias se diffusent instantanément en ligne, la réputation d’un avocat peut s’effondrer du jour au lendemain s’il s’avère qu’il s’est appuyé sur du matériel d’IA faux ou non vérifié. Il serait également bénéfique que les tribunaux soient formés à la détection des fausses affaires générées par l’IA.
La voie à suivre
Notre étude conclut que l’IA est là pour rester, tout comme son utilisation en droit. Le défi n’est pas de savoir si la profession juridique doit utiliser l’IA, mais comment. Les facultés de droit ont une opportunité cruciale, et un devoir éthique, de préparer les futurs praticiens à un monde où la technologie et le jugement humain doivent fonctionner côte à côte.
La rapidité et la commodité ne peuvent jamais remplacer la précision et l’intégrité. Alors que l’IA devient un élément courant de la recherche juridique, les avocats de demain doivent être formés non seulement à inciter, mais aussi à réfléchir.
