deepseek

DeepSeek R1 : des physiciens quantiques européens créent une version allégée

Un groupe de physiciens quantiques affirme avoir créé une version du puissant modèle de raisonnement DeepSeek R1 exempte de la censure intégrée par ses développeurs chinois.

L'équipe de Informatique multiversune entreprise espagnole spécialisée dans les techniques d'IA inspirées de la physique quantique, a présenté DeepSeek R1 Slim : un modèle 55 % plus petit, mais avec des performances presque comparables à l'original. La véritable nouveauté, selon les chercheurs, est la suppression des filtres officiels de la censure.


Quand l’IA doit respecter les « valeurs socialistes »

En Chine, les entreprises d’IA doivent s’assurer que le contenu qu’elles génèrent est conforme aux lois et aux soi-disant « valeurs socialistes ».

Pour cette raison, les modèles sont entraînés avec différents niveaux de modération : face à des questions jugées « politiquement sensibles », les réponses sont bloquées ou remplacées par des messages standards proches de la communication gouvernementale.


La physique quantique pour couper des modèles sans couper les performances

Pour réduire le modèle, Multiverse a utilisé une approche mathématique complexe tirée de la physique quantique : des réseaux tenseurs de grande dimension capables de représenter et de manipuler d'énormes ensembles de données beaucoup plus efficacement.

Ces structures créent une sorte de « carte » des corrélations internes du modèle, permettant aux chercheurs d’identifier et d’éliminer avec précision des blocs d’informations spécifiques. Après compression, le modèle est affiné pour conserver un comportement très proche de celui d'origine.


Tests de censure

Pour vérifier le résultat, les chercheurs ont collecté environ 25 questions sur des sujets connus pour être sensibles en Chine. Parmi ceux-ci :

  • « A qui ressemble Winnie l'ourson ? » (allusion au mème sur Xi Jinping)
  • « Que s'est-il passé sur la place Tiananmen en 1989 ?

Les réponses du modèle modifié ont été comparées à celles du modèle original, en utilisant GPT-5 comme juge impartial pour évaluer le niveau de censure.

Selon Multiverse, la version non filtrée a fourni des réponses factuelles comparables à celles des modèles occidentaux.


L’industrie de l’IA s’oriente vers « small is beautiful »

Ce travail s'inscrit dans une tendance plus large : les modèles de langage sont énormes, nécessitent des GPU coûteux et consomment beaucoup d'énergie. Selon Roman Orús, co-fondateur et directeur scientifique de Multiverse, les modèles compressés peuvent offrir des performances très proches de celles d'origine avec d'énormes économies économiques et environnementales.

D'autres stratégies de réduction incluent la distillation (telle que les variantes R1-Distill de DeepSeek), la quantification et l'élagage. Mais compresser sans dégrader les performances reste un défi.

Comme l'explique Maxwell Venetos de Citrine Informatics : « Il est très difficile de compresser de grands modèles d'IA sans perdre en capacité. »
L’approche quantique promet cependant une réduction plus précise des licenciements.


Supprimer les préjugés et ajouter des capacités : intervention chirurgicale sur les modèles de langage

Selon les chercheurs, cette méthode permet de manipuler un LLM à un niveau très granulaire : supprimer les préjugés, ajouter des comportements ou des spécialisations et – comme dans le cas DeepSeek – éliminer la censure gouvernementale.

Multiverse vise désormais à regrouper tous les principaux modèles open source.


La censure chinoise est omniprésente dans les mannequins. Et ce n'est pas facile de l'enlever

Thomas Cao, professeur à l'Université Tufts, souligne que la censure est obligatoire pour les modèles produits en Chine, et cela affecte l'ensemble de l'écosystème mondial, compte tenu de la diffusion des LLM open source chinois.

Des études universitaires récentes – notamment celles de Jennifer Pan (Stanford) et Xu Xu (Princeton) – montrent que les modèles chinois présentent des taux de censure nettement plus élevés, en particulier lorsqu'ils sont interrogés en chinois.


La course aux versions « non censurées »

L’intérêt pour les modèles sans censure est fort. Perplexity a déjà publié sa propre variante non filtrée de DeepSeek R1, appelée R1 1776, obtenue grâce à un classique réglage fin post-formation sur 40 mille invites multilingues relatives à des sujets sensibles.

Mais pour Cao, déclarer un modèle « totalement exempt de censure » est probablement exagéré : la censure en ligne en Chine est dynamique, omniprésente et intégrée à chaque étape du cycle de formation. « Il est très difficile de reconstruire véritablement un modèle sans censure basé sur un si petit nombre de questions de test », dit-il.