Les chatbots IA offrent du réconfort aux personnes en deuil
Rester en contact avec un être cher après sa mort, c’est la promesse de plusieurs start-up utilisant les pouvoirs de l’intelligence artificielle, non sans poser des questions éthiques.
Ryu Sun-yun est assise devant un micro et un écran géant, où apparaît son mari, décédé quelques mois plus tôt.
« Chérie, c’est moi », lui dit l’homme à l’écran dans une démo vidéo. En larmes, elle lui répond et un semblant de conversation s’engage.
Lorsque Lee Byeong-hwal a appris qu’il avait un cancer en phase terminale, le Sud-Coréen de 76 ans a demandé à la startup DeepBrain AI de créer une réplique numérique en utilisant plusieurs heures de vidéo.
« Nous ne créons pas de nouveau contenu » comme des phrases que le défunt n’aurait jamais prononcées ou du moins écrites et validées de son vivant, a déclaré Joseph Murphy, responsable du développement chez DeepBrain AI, à propos du programme « Rememory ».
« Je dirais que c’est une partie de niche de notre entreprise. Ce n’est pas un domaine de croissance pour nous », a-t-il averti.
L’idée est la même pour la société StoryFile, qui fait appel à l’acteur de « Star Trek » William Shatner, âgé de 92 ans, pour commercialiser son site.
« Notre approche consiste à capter l’émerveillement d’un individu, puis à utiliser les outils de l’IA », explique Stephen Smith, patron de StoryFile, qui revendique plusieurs milliers d’utilisateurs de son service Life.
L’entrepreneur Pratik Desai a fait sensation il y a quelques mois en suggérant aux gens de sauvegarder l’audio ou la vidéo de « vos parents, vos aînés et vos proches », estimant que d’ici « la fin de cette année », il serait possible de créer un avatar autonome d’un personne décédée et qu’il travaillait sur un projet à cette fin.
Le message posté sur Twitter a déclenché une tempête, au point que, quelques jours plus tard, il a nié être « une goule ».
« C’est un sujet très personnel et je m’excuse sincèrement d’avoir blessé des gens », a-t-il déclaré.
« C’est un très bon domaine éthique que nous prenons avec beaucoup de soin », a déclaré Smith.
Après la mort de sa meilleure amie dans un accident de voiture en 2015, l’ingénieure russe Eugenia Kyuda, qui a émigré en Californie, a créé un « chatbot » nommé Roman comme son ami décédé, qui était alimenté par des milliers de SMS qu’il avait envoyés à ses proches. .
Deux ans plus tard, Kyuda lance Replika, qui propose des robots conversationnels personnalisés, parmi les plus sophistiqués du marché.
Mais malgré le précédent romain, Replika « n’est pas une plateforme faite pour recréer un être cher perdu », a déclaré une porte-parole.
‘Philosophique’
Somnium Space, basé à Londres, veut créer des clones virtuels alors que les utilisateurs sont encore en vie afin qu’ils puissent ensuite exister dans un univers parallèle après leur mort.
« Ce n’est pas pour tout le monde », a concédé le PDG Artur Sychov dans une vidéo publiée sur YouTube à propos de son produit, Live Forever, qu’il annonce pour la fin de l’année.
« Est-ce que je veux rencontrer mon grand-père qui est en IA ? Je ne sais pas. Mais ceux qui le voudront pourront », a-t-il ajouté.
Grâce à l’IA générative, la technologie est là pour permettre aux avatars d’êtres chers décédés de dire des choses qu’ils n’ont jamais dites de leur vivant.
« Je pense que ce sont des défis philosophiques, pas des défis techniques », a déclaré Murphy de DeepBrainAI.
« Je dirais que c’est une ligne en ce moment que nous ne prévoyons pas de franchir, mais qui sait ce que l’avenir nous réserve ? » il ajouta.
« Je pense qu’il peut être utile d’interagir avec une version IA d’une personne afin d’obtenir la fermeture – en particulier dans les situations où le chagrin a été compliqué par des abus ou des traumatismes », Candi Cann, professeur à l’Université Baylor qui étudie actuellement ce sujet dans Corée du Sud.
Mari Dias, professeur de psychologie médicale à l’Université Johnson & Wales, a interrogé nombre de ses patients endeuillés sur les contacts virtuels avec leurs proches.
« La réponse la plus courante est ‘Je ne fais pas confiance à l’IA. J’ai peur qu’elle dise quelque chose que je n’accepterai pas’… J’ai l’impression qu’ils pensent qu’ils n’ont pas le contrôle » sur ce l’avatar le fait.