Les chatbots IA offrent du réconfort aux personnes en deuil

Les chatbots IA offrent du réconfort aux personnes en deuil

L’acteur William Shatner, célèbre pour ses rôles dans Star Trek, est devenu ambassadeur de la société StoryFile.

Rester en contact avec un être cher après sa mort, c’est la promesse de plusieurs start-up utilisant les pouvoirs de l’intelligence artificielle, non sans poser des questions éthiques.

Ryu Sun-yun est assise devant un micro et un écran géant, où apparaît son mari, décédé quelques mois plus tôt.

« Chérie, c’est moi », lui dit l’homme à l’écran dans une démo vidéo. En larmes, elle lui répond et un semblant de conversation s’engage.

Lorsque Lee Byeong-hwal a appris qu’il avait un cancer en phase terminale, le Sud-Coréen de 76 ans a demandé à la startup DeepBrain AI de créer une réplique numérique en utilisant plusieurs heures de vidéo.

« Nous ne créons pas de nouveau contenu » comme des phrases que le défunt n’aurait jamais prononcées ou du moins écrites et validées de son vivant, a déclaré Joseph Murphy, responsable du développement chez DeepBrain AI, à propos du programme « Rememory ».

« Je dirais que c’est une partie de niche de notre entreprise. Ce n’est pas un domaine de croissance pour nous », a-t-il averti.

L’idée est la même pour la société StoryFile, qui fait appel à l’acteur de « Star Trek » William Shatner, âgé de 92 ans, pour commercialiser son site.

« Notre approche consiste à capter l’émerveillement d’un individu, puis à utiliser les outils de l’IA », explique Stephen Smith, patron de StoryFile, qui revendique plusieurs milliers d’utilisateurs de son service Life.

L’entrepreneur Pratik Desai a fait sensation il y a quelques mois en suggérant aux gens de sauvegarder l’audio ou la vidéo de « vos parents, vos aînés et vos proches », estimant que d’ici « la fin de cette année », il serait possible de créer un avatar autonome d’un personne décédée et qu’il travaillait sur un projet à cette fin.

Le message posté sur Twitter a déclenché une tempête, au point que, quelques jours plus tard, il a nié être « une goule ».

« C’est un sujet très personnel et je m’excuse sincèrement d’avoir blessé des gens », a-t-il déclaré.

« C’est un très bon domaine éthique que nous prenons avec beaucoup de soin », a déclaré Smith.

Après la mort de sa meilleure amie dans un accident de voiture en 2015, l’ingénieure russe Eugenia Kyuda, qui a émigré en Californie, a créé un « chatbot » nommé Roman comme son ami décédé, qui était alimenté par des milliers de SMS qu’il avait envoyés à ses proches. .

Deux ans plus tard, Kyuda lance Replika, qui propose des robots conversationnels personnalisés, parmi les plus sophistiqués du marché.

Mais malgré le précédent romain, Replika « n’est pas une plateforme faite pour recréer un être cher perdu », a déclaré une porte-parole.

‘Philosophique’

Somnium Space, basé à Londres, veut créer des clones virtuels alors que les utilisateurs sont encore en vie afin qu’ils puissent ensuite exister dans un univers parallèle après leur mort.

« Ce n’est pas pour tout le monde », a concédé le PDG Artur Sychov dans une vidéo publiée sur YouTube à propos de son produit, Live Forever, qu’il annonce pour la fin de l’année.

« Est-ce que je veux rencontrer mon grand-père qui est en IA ? Je ne sais pas. Mais ceux qui le voudront pourront », a-t-il ajouté.

Grâce à l’IA générative, la technologie est là pour permettre aux avatars d’êtres chers décédés de dire des choses qu’ils n’ont jamais dites de leur vivant.

« Je pense que ce sont des défis philosophiques, pas des défis techniques », a déclaré Murphy de DeepBrainAI.

« Je dirais que c’est une ligne en ce moment que nous ne prévoyons pas de franchir, mais qui sait ce que l’avenir nous réserve ? » il ajouta.

« Je pense qu’il peut être utile d’interagir avec une version IA d’une personne afin d’obtenir la fermeture – en particulier dans les situations où le chagrin a été compliqué par des abus ou des traumatismes », Candi Cann, professeur à l’Université Baylor qui étudie actuellement ce sujet dans Corée du Sud.

Mari Dias, professeur de psychologie médicale à l’Université Johnson & Wales, a interrogé nombre de ses patients endeuillés sur les contacts virtuels avec leurs proches.

« La réponse la plus courante est ‘Je ne fais pas confiance à l’IA. J’ai peur qu’elle dise quelque chose que je n’accepterai pas’… J’ai l’impression qu’ils pensent qu’ils n’ont pas le contrôle » sur ce l’avatar le fait.