Il y a des gens qui partagent leurs affaires judiciaires avec AI. Le problème, c'est quand un juge considère les conversations comme des preuves

Il y a des gens qui partagent leurs affaires judiciaires avec AI. Le problème, c'est quand un juge considère les conversations comme des preuves

De plus en plus d'utilisateurs ont un chatbot avec l'IA comme compagnon pour tout, qu'il s'agisse de ChatGPT, Gemini, Claude ou autre. Le problème survient lorsque nous décidons de partager des données sensibles avec ce type d'outils, notamment avec des modèles commerciaux produits par de grandes entreprises technologiques où nous aurons toujours le doute sur la destination de nos données.

En ce sens, il y a ceux qui partagent leurs données juridiques avec l’assistant, ce qui peut conduire à quelque chose comme ce qui s’est passé récemment à New York. Et un juge municipal vient de créer un précédent historique en considérant que toute conversation tenue avec un chatbot est publique et donc non protégée par le secret professionnel de l'avocat. C’est-à-dire : tout ce que vous partagez avec l’IA peut finir par être utilisé contre vous devant les tribunaux.

Le cas. Bradley Heppner, un cadre accusé de fraude de 300 millions de dollars, a utilisé le chatbot Claude d'Anthropic pour poser des questions sur son statut juridique avant son arrestation. Il a créé 31 documents avec ses conversations avec l'IA et les a ensuite partagés avec ses avocats de la défense. Lorsque le FBI a saisi ses appareils électroniques, ses avocats ont affirmé que ces documents étaient protégés par le secret professionnel de l'avocat. Le juge Jed Rakoff a dit non.

Pourquoi pas. Comme Moish Peltz, avocat spécialisé dans les actifs numériques et la propriété intellectuelle, le partage dans une publication sur X, la décision établit trois raisons. Premièrement, une IA n’est pas un avocat : elle n’est pas autorisée à exercer, ne doit aucune loyauté à qui que ce soit et ses conditions d’utilisation rejettent expressément toute relation avocat-client. Deuxièmement, partager une information juridique avec une IA équivaut juridiquement à la communiquer à un ami, elle n’est donc pas protégée par le secret professionnel. Et troisièmement, l'envoi ultérieur de documents « non privilégiés » à votre avocat ne les rend pas comme par magie confidentiels.

Le problème sous-jacent. Comme le rappelle l'avocat, l'interface de ce type de chatbot génère un faux sentiment de confidentialité, mais en réalité vous saisissez des informations sur une plateforme commerciale tierce qui conserve vos données et se réserve de larges droits de les divulguer. En vertu de la politique de confidentialité d'Anthropic en vigueur lorsque Heppner a utilisé Claude, la société peut divulguer à la fois les questions des utilisateurs et les réponses générées aux « autorités gouvernementales de régulation ».

Dilemme. Le document judiciaire révèle également une circonstance aggravante : Heppner a introduit dans AI des informations qu'il avait précédemment reçues de ses avocats. Cela pose un dilemme pour l'accusation, selon Peltz. Et si vous essayez d’utiliser ces documents comme preuve au procès, les avocats de la défense pourraient devenir témoins des événements, ce qui pourrait entraîner l’annulation du procès.

Mistral ne génère pas de battage médiatique, c'est une IA discrète, elle ne fait grimper les actions d'aucune entreprise, mais elle gagne déjà plus d'argent que Grok

Qu'est-ce que cela signifie pour vous ? Si vous êtes impliqué dans une affaire juridique, selon cette décision, ce que vous partagez avec une IA peut être réclamé par un juge et utilisé comme preuve. Peu importe que vous prépariez votre défense ou que vous demandiez des conseils préliminaires, chaque question peut finir par devenir un facteur défavorable à vous. Et cela ne s'applique pas qu'aux affaires pénales : divorces, conflits du travail, litiges commerciaux… toute conversation avec AI sur ces sujets échappe à la protection juridique.

Et maintenant quoi. Peltz note que les professionnels du droit devraient explicitement avertir leurs clients de ce risque. Vous ne pouvez pas supposer que les gens le comprennent intuitivement. La solution qu’il évoque consiste à créer des espaces de travail collaboratifs avec l’IA partagés entre l’avocat et le client, afin que toute interaction avec l’intelligence artificielle se fasse sous la supervision de l’avocat et dans le cadre de la relation avocat-client.

Image de couverture | Romain Dancre et Solen Feyissa

À Simseo | Plier des vêtements ou démonter des LEGO a toujours été une tâche fastidieuse. La nouvelle IA pour robots de Xiaomi y a mis fin