Des documents juridiques remplis d'erreurs montrent les limites du recours aux outils d'IA au travail
Les juges du monde entier sont confrontés à un problème croissant : des mémoires juridiques générés à l'aide de l'intelligence artificielle et soumis avec des erreurs telles que des citations de cas qui n'existent pas, selon les avocats et les documents judiciaires.
Cette tendance constitue un avertissement pour les personnes qui apprennent à utiliser les outils d’IA au travail. De nombreux employeurs souhaitent embaucher des travailleurs capables d’utiliser la technologie pour les aider dans des tâches telles que la réalisation de recherches et la rédaction de rapports. Alors que les enseignants, les comptables et les professionnels du marketing commencent à interagir avec les chatbots et les assistants IA pour générer des idées et améliorer la productivité, ils découvrent également que les programmes peuvent commettre des erreurs.
Damien Charlotin, data scientist et avocat français, a répertorié au moins 490 dossiers judiciaires au cours des six derniers mois contenant des « hallucinations », c'est-à-dire des réponses d'IA contenant des informations fausses ou trompeuses. Le rythme s’accélère à mesure que de plus en plus de personnes utilisent l’IA, a-t-il déclaré.
« Même les joueurs les plus sophistiqués peuvent avoir un problème avec cela », a déclaré Charlotin. « L'IA peut être une aubaine. C'est merveilleux, mais il y a aussi des pièges. »
Charlotin, chercheur principal à HEC Paris, une école de commerce située juste à l'extérieur de la capitale française, a créé une base de données pour suivre les cas dans lesquels un juge a jugé que l'IA générative produisait des contenus hallucinés tels qu'une jurisprudence fabriquée et de fausses citations. La majorité des décisions proviennent d'affaires américaines dans lesquelles les plaignants se sont représentés eux-mêmes sans avocat, a-t-il déclaré. Alors que la plupart des juges ont émis des avertissements concernant les erreurs, certains ont imposé des amendes.
Mais même des entreprises de premier plan ont soumis des documents juridiques problématiques. Un juge fédéral du Colorado a statué qu'un avocat de MyPillow Inc. avait déposé un mémoire contenant près de 30 citations défectueuses dans le cadre d'une affaire de diffamation contre la société et son fondateur Michael Lindell.
La profession juridique n’est pas la seule à être aux prises avec les faiblesses de l’IA. Les aperçus de l'IA qui apparaissent en haut des pages de résultats de recherche sur le Web contiennent souvent des erreurs.
Et les outils d’IA soulèvent également des problèmes de confidentialité. Les travailleurs de tous les secteurs doivent être prudents quant aux détails qu'ils téléchargent ou inscrivent dans les invites afin de garantir qu'ils protègent les informations confidentielles des employeurs et des clients.
Des experts juridiques et professionnels partagent leurs expériences concernant les erreurs de l'IA et décrivent les périls à éviter.
Considérez l’IA comme un assistant
Ne faites pas confiance à l’IA pour prendre de grandes décisions à votre place. Certains utilisateurs d'IA traitent l'outil comme un stagiaire à qui vous assignez des tâches et dont vous comptez vérifier le travail terminé.
« Considérez l'IA comme une augmentation de votre flux de travail », a déclaré Maria Flynn, PDG de Jobs for the Future, une organisation à but non lucratif axée sur le développement de la main-d'œuvre. Il peut servir d'assistant pour des tâches telles que la rédaction d'un courrier électronique ou la recherche d'un itinéraire de voyage, mais ne le considérez pas comme un substitut capable de faire tout le travail, a-t-elle déclaré.
Lors de la préparation d'une réunion, Flynn a expérimenté un outil d'IA interne, lui demandant de suggérer des questions de discussion basées sur un article qu'elle a partagé avec l'équipe.
« Certaines des questions proposées n'étaient pas vraiment adaptées au contexte de notre organisation, j'ai donc pu lui faire part de certains de ces commentaires… et il est revenu avec cinq questions très réfléchies », a-t-elle déclaré.
Vérifier l'exactitude
Flynn a également découvert des problèmes dans le résultat de l'outil d'IA, qui en est encore à sa phase pilote. Elle lui a demandé un jour de compiler des informations sur le travail effectué par son organisation dans différents États. Mais l’outil d’IA traitait les travaux terminés et les propositions de financement comme la même chose.
« Dans ce cas, notre outil d'IA n'était pas en mesure d'identifier la différence entre quelque chose qui avait été proposé et quelque chose qui avait été réalisé », a déclaré Flynn.

Heureusement, elle possédait les connaissances institutionnelles nécessaires pour reconnaître les erreurs. « Si vous êtes nouveau dans une organisation, demandez à vos collègues si les résultats leur semblent exacts », a suggéré Flynn.
Même si l’IA peut aider au brainstorming, s’appuyer sur elle pour fournir des informations factuelles est risqué. Prenez le temps de vérifier l’exactitude de ce que génère l’IA, même s’il est tentant de sauter cette étape.
« Les gens font une hypothèse parce que cela semble tellement plausible que c'est vrai et que c'est pratique », a déclaré Justin Daniels, avocat basé à Atlanta et actionnaire du cabinet d'avocats Baker Donelson. « Devoir revenir en arrière et vérifier toutes les citations, ou quand je regarde un contrat résumé par AI, je dois revenir en arrière et lire ce que dit le contrat, c'est un peu gênant et prend du temps, mais c'est ce que vous devez faire. Même si vous pensez que l'IA peut remplacer cela, elle ne peut pas. «
Soyez prudent avec les preneurs de notes
Il peut être tentant d’utiliser l’IA pour enregistrer et prendre des notes lors de réunions. Certains outils génèrent des résumés utiles et décrivent les étapes d'action en fonction de ce qui a été dit.
Mais de nombreuses juridictions exigent le consentement des participants avant d’enregistrer des conversations. Avant d'utiliser l'IA pour prendre des notes, faites une pause et réfléchissez si la conversation doit rester privilégiée et confidentielle, a déclaré Danielle Kays, associée basée à Chicago au sein du cabinet d'avocats Fisher Phillips.
Consultez des collègues des services juridiques ou des ressources humaines avant de déployer un preneur de notes dans des situations à haut risque telles que des enquêtes, des évaluations de performances ou des discussions de stratégie juridique, a-t-elle suggéré.
« Les gens prétendent qu'avec l'utilisation de l'IA, il devrait y avoir différents niveaux de consentement, et c'est quelque chose qui est en train d'être examiné par les tribunaux », a déclaré Kays. « C'est une question que je dirais que les entreprises devraient continuer à surveiller car elle fait l'objet de litiges. »
Protection des informations confidentielles
Si vous utilisez des outils d'IA gratuits pour rédiger un mémo ou une campagne marketing, ne lui communiquez pas d'informations d'identification ou de secrets d'entreprise. Une fois que vous avez téléchargé ces informations, il est possible que d'autres personnes utilisant le même outil les trouvent.
En effet, lorsque d'autres personnes posent des questions à un outil d'IA, celui-ci recherche les informations disponibles, y compris les détails que vous avez révélés, au fur et à mesure qu'il construit sa réponse, a déclaré Flynn. « Il ne distingue pas si quelque chose est public ou privé », a-t-elle ajouté.
Rechercher une scolarité
Si votre employeur ne propose pas de formation en IA, essayez d'expérimenter des outils gratuits tels que ChatGPT ou Microsoft Copilot. Certaines universités et entreprises technologiques proposent des cours qui peuvent vous aider à développer votre compréhension du fonctionnement de l’IA et de la manière dont elle peut être utile.
Un cours qui enseigne aux gens comment créer les meilleures invites d'IA ou des cours pratiques offrant des opportunités de pratique sont précieux, a déclaré Flynn.
Malgré les problèmes potentiels liés aux outils, apprendre comment ils fonctionnent peut être bénéfique à une époque où ils sont omniprésents.
« Le plus grand piège potentiel dans l'apprentissage de l'IA est de ne pas apprendre à l'utiliser du tout », a déclaré Flynn. « Nous devrons tous maîtriser l'IA, et prendre les premières mesures pour développer votre familiarité, votre alphabétisation et votre confort avec l'outil sera d'une importance cruciale. »
