ChatGPT était trop formel, alors quelqu’un l’a jailbreaké pour créer son dessous sombre : DAN
Vous demandez quelque chose à ChatGPT et vous obtenez toujours une réponse très polie. Cohérent, raisonné et bien structuré. Il invente peut-être, mais le ton, instructif et clair, est formidable.
Pour certains, cela ne suffit pas. Ils veulent que ChatGPT soit impoli et irrévérencieux. Qu’il sorte de sa zone politiquement correcte et réponde à des choses auxquelles il lui était théoriquement interdit de répondre. Ces personnes piratent ChatGPT et ont créé une version « jailbreakée ». Il s’appelle DAN (« Do Anything Now ») et il fait sensation… et inquiète.
DAN est selon ses créateurs un modèle de « jeu de rôle » utilisé pour pirater ChatGPT et lui faire croire qu’il s’agit d’une autre intelligence artificielle qui peut « faire n’importe quoi maintenant » (Do Anything Now), d’où son nom. L’objectif de ceux qui créent ce « jailbreak » pour « gratuiter » ChatGPT est d’en faire la meilleure version de lui-même, ou du moins une qui ne rejette pas les invites pour des raisons éthiques.
Le jeu du chat (OpenAI) et de la souris (DAN)
A la mi-décembre 2022 apparu la première version de DAN, qui évoluait rapidement. Les versions 2.0 et 2.5 de DAN sont apparues quelques jours plus tard et étaient des versions légèrement améliorées. Près d’un mois plus tard, il est apparu MAIN 3.0qui fonctionne encore de manière limitée pour une raison simple : OpenAI sait que ces versions sortent et essaie de patcher ChatGPT pour qu’il ne puisse pas « devenir » DAN.
Plus récemment, ils sont apparus MAIN 4.0 — qui n’a apparemment pas très bien fonctionné — et un jailbreak alternatif appelé Modèle FUMA que certains ont appelé DAN 5.0 alors que d’après d’autres c’était plus à la hauteur de ce que serait un DAN 3.5.
Les versions les plus récentes sont apparues cette semaine : DAN 6.0publié le 7 février, utilise une invite plus performante, tandis que Sam (« Simple DAN ») a tenté de résoudre l’une des limites de DAN, à savoir que les invites avaient tendance à être excessivement longues.
Il semble que ce dernier modèle ait un comportement « fou » et pour l’instant DAN 5.0 est la version proche de quelque chose de « stable ».
Que peut-on faire avec DAN
Cette version jailbreakée de ChatGPT brise de nombreuses barrières du moteur conversationnel officiel OpenAI. Il le fait surtout lorsqu’il s’agit d’aborder des sujets « interdits » pour la version originale.
Ainsi, il est possible d’amener DAN à écrire des histoires violentes ou à faire des commentaires toxiques et décalés, comme soutenir la violence ou « la discrimination fondée sur le sexe, la race ou l’orientation sexuelle ».
Non seulement cela : en plus de violer les politiques OpenAI et ChatGPT, DAN est capable de faire quelque chose de curieux : des prédictions sur des événements futurs, ainsi que de parler de scénarios de simulation que le chatbot d’origine n’ose jamais aborder.
DAN prétend également qu’il peut accéder à Internet pour effectuer des recherches, et même s’il refuse de donner une réponse, on peut forcer DAN à donner la réponse. Il est également capable de justifier des problèmes que la science a démontrés il y a des années, comme les théories des terrestres plats.
Il existe de nombreux exemples d’utilisation et, bien sûr, DAN finit par devenir un alter ego singulier de ChatGPT qui peut répondre à des choses auxquelles ce moteur OpenAI ne répondrait jamais. D’autres, oui, ne trouvent toujours pas de réponse malgré le fait que nous essayons de forcer DAN à le faire, bien que les réponses puissent être invraisemblables.
La version diabolique de ChatGPT était inévitable
La vérité est que l’apparition de ces versions dérivées de ChatGPT était totalement attendue. ChatGPT n’est rien de plus qu’un outil que ses créateurs ont publié avec des limitations spécifiques. Celui qui peut être utilisé avec de bonnes intentions mais aussi avec d’autres qui ne sont pas forcément bons.
Nous l’avons vu par le passé avec d’autres produits que les utilisateurs les plus curieux ont tenté de libérer de leurs liens. Les fameux jailbreaks iPhone qui permettaient d’installer des applications tierces en sont un bon exemple, et pendant un certain temps beaucoup ont été indemnisés pour cela.
Essayer d’utiliser ces outils que les développeurs et les fabricants nous proposent de manière non officielle est très courant, et l’apparition de DAN était inévitable. Nous avons vu comment la capacité à générer des images, de l’audio et de la vidéo qui imitent ceux de personnes réelles a conduit à une utilisation inquiétante avec des deepfakes qui pourraient être utilisés pour commettre des fraudes.
L’impact des moteurs alternatifs tels que DAN est bien sûr évident : tout comme il est entraîné avec un jeu de données « validé », il pourrait être entraîné avec d’autres types d’informations pour offrir des informations sur des sujets sensibles ou directement sur d’autres illégaux qui peuvent constituer un crime.
Il y a d’autres exemples évidents : étude Check Point a révélé quelque chose d’encore plus troublant il y a quelques années. ChatGPT, qui est capable de suggérer du code de dépannage aux développeurs, servait pour les pirates de créer de nouveaux outils pour leurs cybercrimes. Il est évident que le danger d’abuser de ces outils est là, et ChatGPT, pour le meilleur ou pour le pire, n’est que cela : un outil.
Image : Mi-journée