L’IA pourrait changer la façon dont nous obtenons des conseils juridiques, mais ceux qui n’ont pas accès à la technologie pourraient être laissés pour compte

L’IA pourrait changer la façon dont nous obtenons des conseils juridiques, mais ceux qui n’ont pas accès à la technologie pourraient être laissés pour compte

La profession juridique utilise déjà l’intelligence artificielle (IA) depuis plusieurs années pour automatiser les examens et prédire les résultats, entre autres fonctions. Cependant, ces outils ont été principalement utilisés par de grandes entreprises bien établies.

En effet, certains cabinets d’avocats ont déjà déployé des outils d’IA pour assister leurs avocats salariés dans leur travail quotidien. En 2022, les trois quarts des plus grands cabinets d’avocats utilisaient l’IA. Cependant, cette tendance commence désormais à englober également les petites et moyennes entreprises, signalant une évolution de ces outils technologiques vers une utilisation grand public.

Cette technologie pourrait être extrêmement bénéfique tant pour les professionnels du droit que pour les clients. Mais son expansion rapide a également accru l’urgence des appels à évaluer les risques potentiels.

Le rapport sur les perspectives de risque 2023 de la Solicitors Regulatory Authority (SRA) prédit que l’IA pourrait automatiser les tâches chronophages, ainsi qu’augmenter la vitesse et la capacité. Ce dernier point pourrait bénéficier aux petites entreprises disposant d’un soutien administratif limité. En effet, cela a le potentiel de réduire les coûts et – potentiellement – ​​d’augmenter la transparence autour de la prise de décision juridique, à condition que la technologie soit bien surveillée.

Approche réservée

Cependant, en l’absence d’audit rigoureux, les erreurs résultant de ce que l’on appelle les « hallucinations », dans lesquelles une IA fournit une réponse fausse ou trompeuse, peuvent conduire à la fourniture de conseils inappropriés aux clients. Cela pourrait même conduire à des erreurs judiciaires si les tribunaux étaient induits en erreur par inadvertance, par exemple en présentant de faux précédents.

Un cas imitant ce scénario s’est déjà produit aux États-Unis, où un avocat new-yorkais a soumis un mémoire juridique contenant six décisions judiciaires fabriquées de toutes pièces. Dans ce contexte de reconnaissance croissante du problème, les juges anglais ont reçu des orientations judiciaires concernant l’utilisation de la technologie en décembre 2023.

Il s’agit d’une première étape importante dans la gestion des risques, mais l’approche globale du Royaume-Uni reste encore relativement réservée. Bien qu’il reconnaisse les complications technologiques associées à l’IA, telles que l’existence de biais pouvant être incorporés dans les algorithmes, son attention ne s’est pas éloignée de l’approche des « garde-fous », qui sont généralement des contrôles initiés par l’industrie technologique par opposition aux cadres réglementaires imposés. de l’extérieur. L’approche du Royaume-Uni est nettement moins stricte que, par exemple, la loi européenne sur l’IA, en cours d’élaboration depuis de nombreuses années.

L’innovation dans le domaine de l’IA peut s’avérer nécessaire pour une société prospère, même si des limites gérables ont été identifiées. Mais il semble y avoir une véritable absence de considération quant au véritable impact de la technologie sur l’accès à la justice. Le battage médiatique implique que ceux qui pourraient à un moment donné être confrontés à un litige seront équipés d’outils experts pour les guider tout au long du processus.

Cependant, de nombreux membres du public peuvent ne pas avoir un accès régulier ou direct à Internet, les appareils nécessaires ou les moyens financiers nécessaires pour accéder à ces outils d’IA. De plus, les personnes incapables d’interpréter les instructions de l’IA ou celles numériquement exclues en raison d’un handicap ou de leur âge ne pourraient pas non plus profiter de cette nouvelle technologie.

Fracture numérique

Malgré la révolution Internet à laquelle nous avons assisté au cours des deux dernières décennies, un nombre important de personnes ne l’utilisent toujours pas. Le processus de résolution des tribunaux est différent de celui des entreprises de base où certains problèmes des clients peuvent être résolus via un chatbot. Les problèmes juridiques varient et nécessiteraient une réponse modifiée en fonction de l’affaire en question.

Même les chatbots actuels sont parfois incapables de résoudre certains problèmes, dirigeant souvent les clients vers un salon de discussion humain dans ces cas-là. Bien qu’une IA plus avancée puisse potentiellement résoudre ce problème, nous avons déjà été témoins des pièges d’une telle approche, tels que des algorithmes défectueux pour les médicaments ou la détection de fraudes aux prestations.

La loi sur la détermination de la peine et la punition des délinquants (LASPO 2012) a introduit des coupes dans le financement de l’aide juridique, réduisant ainsi les critères d’éligibilité financière. Cela a déjà créé un fossé en matière d’accès, avec un nombre croissant de personnes devant se représenter elles-mêmes devant les tribunaux en raison de leur incapacité à payer une représentation juridique. C’est un écart qui pourrait se creuser à mesure que la crise financière s’aggrave.

Même si les individus qui se représentent eux-mêmes pouvaient accéder aux outils d’IA, ils pourraient ne pas être en mesure de comprendre clairement les informations ou leurs implications juridiques afin de défendre efficacement leurs positions. Il y a aussi la question de savoir s’ils seraient en mesure de transmettre efficacement l’information devant un juge.

Le personnel juridique est en mesure d’expliquer le processus en termes clairs, ainsi que les résultats potentiels. Ils peuvent également offrir un semblant de soutien, instaurant confiance et rassurant leurs clients. Prise au pied de la lettre, l’IA a certainement le potentiel d’améliorer l’accès à la justice. Cependant, ce potentiel est compliqué par les inégalités structurelles et sociétales existantes.

Avec l’évolution technologique à un rythme monumental et la minimisation de l’élément humain, il existe un réel potentiel de creusement d’un fossé important en termes de qui peut accéder aux conseils juridiques. Ce scénario est en contradiction avec les raisons pour lesquelles l’utilisation de l’IA a été initialement encouragée.