La Californie adopte la première loi américaine exigeant des mesures de sécurité pour les chatbots IA

La Californie adopte la première loi américaine exigeant des mesures de sécurité pour les chatbots IA

Le gouverneur de Californie, Gavin Newsom, a promulgué lundi une loi unique en son genre réglementant les chatbots d'intelligence artificielle, défiant les pressions de la Maison Blanche visant à laisser cette technologie sans contrôle.

« Nous avons vu des exemples vraiment horribles et tragiques de jeunes blessés par une technologie non réglementée, et nous ne resterons pas les bras croisés pendant que les entreprises continuent sans limites et sans responsabilité nécessaires », a déclaré Newsom après avoir signé le projet de loi.

La loi historique oblige les opérateurs de chatbots à mettre en œuvre des garanties « critiques » concernant les interactions avec les chatbots IA et offre aux personnes la possibilité d'intenter des poursuites si le non-respect de ces mesures entraîne des tragédies, selon le sénateur de l'État Steve Padilla, un démocrate qui a parrainé le projet de loi.

La loi fait suite à des révélations de suicides impliquant des adolescents qui ont utilisé des chatbots avant de se suicider.

« L'industrie technologique est incitée à capter l'attention des jeunes et à la retenir au détriment de leurs relations dans le monde réel », a déclaré Padilla avant le vote du projet de loi au Sénat de l'État.

Padilla a évoqué les récents suicides d'adolescents, notamment celui du fils de 14 ans de la mère de Floride, Megan Garcia.

Le fils de Megan Garcia, Sewell, était tombé amoureux d'un chatbot inspiré de « Game of Thrones » sur Character.AI, une plateforme qui permet aux utilisateurs, dont beaucoup de jeunes, d'interagir avec des personnages bien-aimés en tant qu'amis ou amants.

Lorsque Sewell était aux prises avec des pensées suicidaires, le chatbot l'a exhorté à « rentrer à la maison ».

Quelques secondes plus tard, Sewell s'est suicidé avec l'arme de poing de son père, selon le procès intenté par Garcia contre Character.AI.

« Aujourd'hui, la Californie a garanti qu'un chatbot compagnon ne pourra pas parler de suicide à un enfant ou à une personne vulnérable, et qu'un chatbot ne pourra pas non plus aider une personne à planifier son propre suicide », a déclaré Garcia à propos de la nouvelle loi.

« Enfin, il existe une loi qui oblige les entreprises à protéger leurs utilisateurs qui expriment des idées suicidaires aux chatbots. »

Aux États-Unis, il n’existe pas de règles nationales visant à réduire les risques liés à l’IA, la Maison Blanche cherchant à empêcher les États individuels de créer les leurs.