Les rêves de chatbot génèrent des cauchemars AI pour les avocats de la région de la baie

Les rêves de chatbot génèrent des cauchemars AI pour les avocats de la région de la baie

Un avocat de Palo Alto, en Californie, avec près d'un demi-siècle d'expérience, admis à un juge fédéral d'Oakland cet été que les affaires juridiques qu'il a référencées lors d'un dossier judiciaire important n'a pas existé et semblait être des produits d'intelligence artificielle « Hallucinations ».

Jack Russo, dans un dossier judiciaire, a décrit les fabrications apparentes de l'IA comme une « situation pour la première fois » pour lui et a ajouté: « Je suis assez gêné à ce sujet ».

Spécialiste en droit informatique, Russo s'est retrouvé dans la compagnie en croissance rapide des avocats honteuse de la technologie d'intelligence artificielle très populaire mais sujette aux erreurs, comme Chatgpt, entre en collision avec les règles rigides de la procédure juridique.

Les hallucinations – lorsqu'ils produisent des informations inexactes ou absurdes – ont posé un problème continu dans l'IA génératrice qui a donné naissance à une frénésie de la Silicon Valley depuis que l'Openai de San Francisco a publié son bot Chatgpt fin 2022.

Dans l'arène juridique, les erreurs générées par l'AI-attirent un examen approfondi alors que les avocats affluent vers la technologie, et les juges furieux font des références aux autorités disciplinaires et, dans des dizaines de cas américains depuis 2023, suscitant des pénalités financières allant jusqu'à 31 000 $, y compris une amende de record de Californie de 10 000 $ le mois dernier dans un cas du sud de la Californie.

Les chatbots répondent aux invites des utilisateurs en s'appuyant sur de vastes mèches de données et en utilisant l'analyse des modèles et des suppositions sophistiquées pour produire des résultats. Des erreurs peuvent survenir pour de nombreuses raisons, notamment des données insuffisantes ou imparfaits en matière de formation AI ou des hypothèses incorrectes par l'IA. Cela affecte non seulement les avocats, mais les gens ordinaires à la recherche d'informations, comme lorsque les aperçus de l'IA de Google ont dit l'année dernière à manger des rochers et à ajouter de la colle à la sauce à pizza pour empêcher le fromage de glisser.

Russo a déclaré au juge Jeffrey White qu'il avait pris l'entière responsabilité de ne pas s'assurer que le dépôt était factuel, mais a déclaré qu'une longue récupération de Covid-19 à un âge supérieur à 70 l'ont amené à déléguer des tâches pour soutenir le personnel sans « protocoles de supervision adéquats » en place.

« Aucune sympathie ici », a déclaré le professeur de droit Internet Eric Goldman de l'Université de Santa Clara. « Chaque avocat peut raconter une histoire SOB, mais je ne tombe pas pour cela. Nous avons des règles qui obligent les avocats à vérifier ce qu'ils déposent. »

Le juge a écrit dans une ordonnance du tribunal le mois dernier que les fabrications de Russo a été une première pour lui. Russo a enfreint une règle de la Cour fédérale en ne vérifiant pas adéquatement sa requête pour jeter une affaire de différend de contrat, a écrit White. Le tribunal, le juge a rejeté, « a été tenu de détourner son attention des avantages de cette affaire et d'autres pour résoudre ce problème ».

White a rendu une ordonnance préliminaire obligeant Russo à payer certains des frais juridiques de la partie opposée. Russo a dit à White que son entreprise, Computerlaw Group, avait « pris des mesures pour réparer et empêcher une réapparition ». Russo a refusé de répondre aux questions de cette organisation de presse.

À la mi-2023, c'était une nouveauté de trouver un avocat confronté à une réprimande pour la soumission des dossiers judiciaires faisant référence à des affaires non existantes évoquées par l'intelligence artificielle, mais maintenant de tels incidents surviennent presque de jour en jour, et même les juges ont été impliqués, selon une base de données compilée par Damien Charlotin, une boursière pour les écoles de commerce française Paris qui est un suivi dans le monde des halles mondiales.

« Je pense que l'accélération est toujours en cours », a déclaré Charlotin.

Charlotin a déclaré que sa base de données comprend « un nombre surprenant » d'avocats qui sont bâclés, téméraires ou « mauvais ».

En mai, l'avocat de San Francisco, Ivana Dukanovic, a admis au tribunal de district américain de San Jose à une « erreur embarrassante et involontaire » par elle-même et d'autres membres du cabinet juridique Latham & Watkins.

Tout en représentant l'anthropique géant de San Francisco Ai dans un cas de copyright de musique, ils ont soumis un dossier avec un matériel halluciné, a écrit Dukanovic. Dukanovic – dont la biographie de l'entreprise répertorie « l'intelligence artificielle » comme l'un de ses domaines de pratique juridique – a été le plus de création de fausses informations sur un chatbot particulier: Claude.ai, le produit phare de son client anthropic.

La juge Susan Van Keulen a ordonné une partie du dossier retiré du dossier du tribunal. Dukanovic, qui, avec son entreprise, semble avoir esquivé des sanctions, n'a pas répondu aux demandes de commentaires.

Charlotin a trouvé 113 affaires américaines impliquant des avocats soumettant des documents avec des éléments hallucinés, principalement des citations de cas légaux, qui font l'objet de décisions de justice depuis la mi-2023. Il pense que de nombreuses soumissions de justice avec des fabrications d'IA ne sont jamais capturées, ce qui affecte potentiellement les résultats des cas.

Les décisions judiciaires peuvent avoir des « conséquences qui changent la vie », y compris dans des affaires impliquant la garde des enfants ou les allégations d'invalidité, a déclaré le professeur de droit Goldman.

« Les enjeux dans certains cas sont si élevés, et si quelqu'un déforme la prise de décision du juge, le système tombe en panne », a déclaré Goldman.

Pourtant, l'IA peut être un outil utile pour les avocats, la recherche d'informations que les gens pourraient manquer et aider à préparer des documents, a-t-il déclaré. « Si les gens utilisent judicieusement l'IA, cela les aide à faire un meilleur travail », a déclaré Goldman. « Cela pousse tout le monde à l'adopter. »

Résultats de l'enquête publiés en avril par l'American Bar Association, le plus grand groupe d'avocats du pays, a révélé que l'utilisation de l'IA par les cabinets d'avocats a presque triplé l'année dernière pour 30% des bureaux juridiques qui ont répondu à 11% en 2023, et que Chatgpt était le « leader clair dans les cabinets de toutes les tailles ».

Les amendes peuvent être la moindre des inquiétudes d'un avocat, a déclaré Goldman. Un juge pourrait signaler un avocat à son organisation de licence de discipline, ou rejeter une affaire, ou rejeter un dossier clé, ou voir tout ce que fait l'avocat dans le cas de scepticisme. Un client pourrait poursuivre pour faute professionnelle. Les ordres de payer les frais juridiques de l'autre partie peuvent nécessiter des paiements à six chiffres.

La base de données de Charlotin montre que les juges ont giflé de nombreux avocats avec des avertissements ou des références aux autorités disciplinaires, et parfois purgeant tout ou partie d'un dossier du dossier du tribunal, ou ordonnant le paiement des honoraires de l'opposition. L'année dernière, une cour d'appel fédérale en Californie a lancé un appel qui, selon lui, était « rempli de fausses déclarations et de jurisprudence fabriquée », y compris « deux affaires qui ne semblent pas exister ».

Charlotin s'attend à ce que sa base de données continue de gonfler.

« Je ne le vois pas vraiment diminuer sur les lignes attendues de » tout le monde devrait sûrement savoir maintenant «  », a déclaré Charlotin.