Il y a des gens qui utilisent l’IA pour planifier des meurtres. La question est de savoir ce que font les entreprises d’IA à ce sujet
Le 10 février, une jeune fille de 18 ans a tué par balle sa mère et son frère. Puis il s'est rendu à l'institut et a assassiné sept autres personnes, pour finalement se suicider. Ce qui est troublant, c'est que l'auteur en avait parlé avec ChatGPT et qu'OpenAI avait eu l'occasion d'avertir la police, mais avait choisi de ne pas le faire.
Que s'est-il passé ? Selon le Wall Street Journal, en juin de l'année dernière, le système automatique d'OpenAI a détecté plusieurs messages qu'un utilisateur avait envoyés à ChatGPT décrivant des scénarios de violence armée. Pour certains employés, ces mesures étaient très inquiétantes car elles pourraient aboutir à de véritables violences. Il y a donc eu un débat interne sur l'opportunité d'avertir les autorités canadiennes. Ils ont finalement fermé son compte, mais n’en ont informé personne. Désormais, les autorités canadiennes les ont convoqués pour leur demander des explications.
Il y a plus. La fusillade de Tumbler Ridge n’est pas le seul cas où l’IA a été utilisée pour planifier un crime. Début 2025, un homme a garé un Cybertruck rempli d'explosifs devant un hôtel de Las Vegas avec l'intention de le faire exploser (même si au final la seule victime était lui-même). Quelques jours auparavant, l'auteur avait demandé à ChatGPT comment procéder. Dans ce cas, le chatbot n’a détecté aucun message préoccupant, mais nous le savons car OpenAI a recherché dans ses messages après coup.
À Séoul, une femme a été emprisonnée pour le meurtre présumé de deux personnes suite à un empoisonnement aux benzodiazépines. L'enquête a révélé que l'accusé s'était rendu sur ChatGPT pour connaître quelle était la dose dangereuse et ce qui se passerait si elle était mélangée à de l'alcool. Les messages dans ce cas ne sont pas si alarmants et pourraient découler d’un véritable doute, mais il s’agit d’un autre exemple d’utilisation de ChatGPT dans la commission d’un crime.
Pourquoi c'est important. Les intelligences artificielles sont devenues une sorte de confessionnal auquel on confie toutes sortes de secrets, même les plus sombres. Il y a ceux qui considèrent l’IA comme une amie, leur psychologue ou même leur amant. En ce sens, il n’est pas étrange que quelqu’un dise à ChatGPT qu’il va tuer sa famille ou qu’il veut faire exploser une voiture pleine d’explosifs. Ce qui est inquiétant, et sur lequel nous devrions nous concentrer, c’est ce que font les entreprises à ce sujet. Pour le moment, cela ne semble pas suffisant.
Sont-ils obligés ? Avouer à votre psychologue ou psychiatre que vous voulez faire du mal à quelqu'un est l'une des raisons pour lesquelles vous pouvez non seulement, mais devez rompre votre secret professionnel et alerter les autorités. Cependant, peu importe à quel point nous utilisons les chatbots en tant que psychologues, il n’existe actuellement aucune loi qui oblige les entreprises d’IA à signaler ce type d’interactions, mais il s’agit d’une décision interne. L’obligation n’est donc pas légale, mais éthique.
Comment fabriquer une bombe maison. Des cas comme celui du jeu de tir Tumbler Ridge ne sont pas quelque chose qui a commencé à se produire avec l’arrivée des chatbots IA. L’existence d’instructions pour fabriquer des bombes artisanales inquiète les autorités depuis des décennies ; Avant même que l’utilisation d’Internet ne devienne populaire, des manuels de ce type circulaient déjà. La même chose se produit dans les cas de suicide ; Vous n'avez pas besoin de demander à ChatGPT, nous pouvons le rechercher sur Google ou écrire dans un forum.
S'adressant au New York Times, un ancien employé d'OpenAI souligne une nuance importante : avec un chatbot, vous ne faites généralement pas une simple recherche, mais vous pouvez plutôt avoir une conversation plus longue où les intentions sont plus claires. En ce sens, il peut être plus facile de détecter des cas comme celui du jeu de tir Tumbler Ridge, mais il peut également y avoir de nombreux faux positifs dus aux utilisateurs qui écrivent des histoires fictives ou utilisent l'IA comme étant compliquée.
À Simseo | Investir dans des centres de données pour l’IA est insensé, et cela va empirer. bien pire
Image de couverture | Pexels, Unsplash
