Suicide-by Chatbot met une grande technologie dans le siège chaud de la responsabilité du produit

Suicide-by Chatbot met une grande technologie dans le siège chaud de la responsabilité du produit

C'est un triste fait de la vie en ligne que les utilisateurs recherchent des informations sur le suicide. Dans les premiers jours d'Internet, Bulletin Board a présenté des groupes de discussion de suicide. À ce jour, Google héberge les archives de ces groupes, tout comme d'autres services.

Google et d'autres peuvent héberger et afficher ce contenu sous le manteau de protection de l'immunité américaine de la responsabilité des conseils dangereux que les tiers pourraient donner sur le suicide. C'est parce que le discours est le tiers, pas celui de Google.

Mais que se passe-t-il si Chatgpt, informé par le même matériel de suicide en ligne, vous donne des conseils de suicide dans une conversation de chatbot? Je suis un boursier en droit de la technologie et un ancien avocat et directeur d'ingénierie chez Google, et je vois des chatbots AI déplacer la position de Big Tech dans le paysage juridique. Les familles de victimes de suicide testent actuellement les arguments de responsabilité du chatbot en justice, avec quelques premiers succès.

Qui est responsable lorsqu'un chatbot parle?

Lorsque les gens recherchent des informations en ligne, que ce soit sur le suicide, la musique ou les recettes, les moteurs de recherche montrent les résultats des sites Web et les sites Web hébergent les informations des auteurs de contenu. Cette chaîne, recherche sur le Web, hébergeant le discours des utilisateurs, s'est poursuivie comme la façon dont les gens ont répondu à leurs questions jusqu'à très récemment.

Ce pipeline était à peu près le modèle d'activité Internet lorsque le Congrès a adopté la loi sur la décence des communications en 1996. L'article 230 de la loi a créé l'immunité pour les deux premiers liens de la chaîne, de la recherche et des hôtes Web, à partir du discours utilisateur qu'ils montrent. Seul le dernier lien de la chaîne, l'utilisateur, a été responsable de son discours.

Les chatbots effondrent ces anciennes distinctions. Désormais, Chatgpt et des robots similaires peuvent rechercher, collecter des informations sur le site Web et parler les résultats, littéralement, dans le cas des robots vocaux de type humain. Dans certains cas, le bot affichera son travail comme un moteur de recherche, notant le site Web qui est la source de sa grande recette pour le poulet miso.

Lorsque les chatbots semblent être juste une forme plus conviviale de bons anciens moteurs de recherche, leurs entreprises peuvent faire des arguments plausibles que l'ancien régime d'immunité s'applique. Les chatbots peuvent être l'ancien modèle Search-Web-Speaker dans un nouvel wrapper.

Mais dans d'autres cas, il agit comme un ami de confiance, vous posant des questions sur votre journée et offrant de l'aide avec vos besoins émotionnels. Les moteurs de recherche sous l'ancien modèle n'ont pas agi comme guides de vie. Les chatbots sont souvent utilisés de cette façon. Les utilisateurs ne veulent même pas que le bot affiche sa main avec des liens Web. Lancer des citations pendant que Chatgpt vous dit d'avoir une bonne journée serait, bien, maladroit.

Plus les chatbots modernes s'écartent des anciennes structures du Web, plus ils s'éloignent de l'immunité que les anciens joueurs Web ont longtemps apprécié. Lorsqu'un chatbot agit comme votre confident personnel, tirant de ses idées de cerveau virtuelles sur la façon dont elle pourrait vous aider à atteindre vos objectifs déclarés, il n'est pas exagéré de le traiter comme le conférencier responsable des informations qu'il fournit.

Les tribunaux répondent en nature, en particulier lorsque le vaste cerveau utile du bot vise à aider votre désir de se renseigner sur le suicide.

Cas de suicide du chatbot

Les poursuites en cours impliquant des chatbots et des victimes de suicide montrent que la porte de la responsabilité s'ouvre pour Chatgpt et d'autres robots. Un cas impliquant le personnage de Google.ai bots en est un excellent exemple.

Caract.ai permet aux utilisateurs de discuter avec des caractères créés par les utilisateurs, des figures d'anime à une grand-mère prototypique. Les utilisateurs pourraient même avoir des appels téléphoniques virtuels avec certains personnages, parler à une NANA virtuelle de soutien comme si c'était le leur. Dans un cas en Floride, un personnage du « Game of Thrones » Daenerys Targaryen Persona aurait demandé à la jeune victime de « rentrer à la maison » au bot au paradis avant que l'adolescent ne se lance. La famille de la victime a poursuivi Google.

La famille de la victime n'a pas encadré le rôle de Google en termes technologiques traditionnels. Plutôt que de décrire la responsabilité de Google dans le contexte des sites Web ou des fonctions de recherche, le demandeur a encadré la responsabilité de Google en termes de produits et de fabrication semblable à un fabricant de pièces défectueux. Le tribunal de district a donné cette crédibilité sur le cadrage malgré l'argument véhément de Google selon lequel il s'agit simplement d'un service Internet, et donc les anciennes règles Internet devraient s'appliquer.

Le tribunal a également rejeté les arguments selon lesquels les déclarations du bot ont été protégées du discours de premier amendement que les utilisateurs ont le droit d'entendre.

Bien que l'affaire soit en cours, Google n'a pas obtenu le licenciement rapide sur lequel les plateformes technologiques comptent depuis longtemps en vertu des anciennes règles. Maintenant, il y a un costume de suivi pour un personnage différent. Bot au Colorado, et Chatgpt fait face à un cas à San Francisco, le tout avec des cadrages de produits et de fabrication comme l'affaire Floride.

Obstacles aux plaignants à surmonter

Bien que la porte à la responsabilité des fournisseurs de chatbot soit maintenant ouverte, d'autres problèmes pourraient empêcher les familles de victimes de récupérer les dommages-intérêts des fournisseurs de bot. Même si Chatgpt et ses concurrents ne sont pas à l'abri des poursuites et que les tribunaux adhèrent au système de responsabilité du produit pour les chatbots, le manque d'immunité ne correspond pas à la victoire pour les plaignants.

Les cas de responsabilité de la responsabilité des produits obligent le demandeur à montrer que le défendeur a causé le préjudice en cause. Cela est particulièrement difficile dans les cas de suicide, car les tribunaux ont tendance à constater que, peu importe ce qui a précédé, la seule personne responsable du suicide est la victime. Qu'il s'agisse d'un argument de colère avec un autre significatif menant à un cri de « Pourquoi ne vous tuez pas simplement » ou une conception d'armes à feu facilitant l'automutilation, les tribunaux ont tendance à constater que seule la victime est à blâmer pour leur propre mort, pas les personnes et les appareils avec lesquels la victime a interagi en cours de route.

Mais sans la protection de l'immunité que les plates-formes numériques bénéficient depuis des décennies, les défendeurs technologiques sont confrontés à des coûts beaucoup plus élevés pour obtenir la même victoire qu'ils recevaient automatiquement. En fin de compte, l'histoire des cas de suicide du chatbot peut être davantage de colonies sur des conditions secrètes, mais lucratives, pour les familles des victimes.

Pendant ce temps, les fournisseurs de bot sont susceptibles de placer plus facilement des avertissements de contenu et de déclencher des arrêts de bot lorsque les utilisateurs entrent en territoire que le bot devrait considérer dangereux. Le résultat pourrait être un monde plus sûr, mais moins dynamique et utile, des «produits» de bot.