Openai dit que Deepseek `` inapproprié '' a copié Chatgpt - mais il fait également face à des affirmations du droit d'auteur

Openai dit que Deepseek «  inapproprié  » a copié Chatgpt – mais il fait également face à des affirmations du droit d’auteur

Jusqu’à il y a quelques semaines, peu de gens dans le monde occidental avaient entendu parler d’une petite entreprise chinoise d’intelligence artificielle (IA) connue sous le nom de Deepseek. Mais le 20 janvier, il a attiré l’attention mondiale lorsqu’il a publié un nouveau modèle d’IA appelé R1.

R1 est un modèle de « raisonnement », ce qui signifie qu’il fonctionne sur les tâches étape par étape et détaille son processus de travail à un utilisateur. Il s’agit d’une version plus avancée du modèle V3 de Deepseek, qui a été publiée en décembre. La nouvelle offre de Deepseek est presque aussi puissante que le modèle d’IA le plus avancé de la société rival Openai, mais à une fraction du coût.

En quelques jours, l’application de Deepseek a dépassé Chatgpt dans de nouveaux téléchargements et fixé les cours des actions des sociétés technologiques aux États-Unis. Il a également conduit Openai à affirmer que son rival chinois avait effectivement piloté certains des joyaux de la couronne des modèles d’Openai pour construire le sien.

Dans une déclaration au New York Times, la société a déclaré: « Nous sommes conscients et examinons les indications que Deepseek peut avoir distillé de manière inappropriée nos modèles et partagerons des informations comme nous en savons plus. Nous prenons des contre-mesures agressives et proactives pour protéger notre technologie et Continuera en étroite collaboration avec le gouvernement américain pour protéger les modèles les plus capables en cours de construction ici. « 

La conversation a approché Deepseek pour commenter, mais elle n’a pas répondu.

Mais même si Deepseek a copié – ou, dans le langage scientifique, « distillé » – au moins une partie de Chatgpt pour construire R1, il convient de se rappeler qu’Openai est également accusé de manque de respect à la propriété intellectuelle tout en développant ses modèles.

Qu’est-ce que la distillation?

La distillation du modèle est une technique d’apprentissage automatique courante dans laquelle un plus petit «modèle d’élève» est formé aux prédictions d’un «modèle d’enseignant» plus grand et plus complexe.

Une fois terminé, l’élève peut être presque aussi bon que l’enseignant, mais représentera les connaissances de l’enseignant plus efficacement et de manière compacte.

Pour ce faire, il n’est pas nécessaire d’accéder au fonctionnement interne de l’enseignant. Tout ce que l’on a besoin pour réussir cette astuce est de poser suffisamment de questions à l’enseignant pour former l’élève.

C’est ce que Openai prétend que Deepseek a fait: a interrogé O1 d’Openai à une échelle massive et a utilisé les résultats observés pour former les modèles plus efficaces de Deepseek.

Une fraction des ressources

Deepseek affirme que la formation et l’utilisation de R1 ne nécessitaient qu’une fraction des ressources nécessaires pour développer les meilleurs modèles de leurs concurrents.

Il y a des raisons d’être sceptiques quant à une partie du battage médiatique de l’entreprise – par exemple, un nouveau rapport indépendant suggère que la dépense matérielle pour R1 était aussi élevée que 500 millions de dollars américains. Mais même ainsi, Deepseek a toujours été construit très rapidement et efficacement par rapport aux modèles rivaux.

Cela peut être dû au fait que Deepseek Distillé Openai est la production. Cependant, il n’y a actuellement aucune méthode pour le prouver de manière concluante. Une méthode qui en est aux premiers stades de développement est les sorties AI de filigrane. Cela ajoute des modèles invisibles aux sorties, similaires à ceux appliqués aux images protégées par le droit d’auteur. Il existe différentes façons de le faire en théorie, mais aucun n’est suffisamment efficace pour l’avoir mis en pratique.

Il existe d’autres raisons qui aident à expliquer le succès de Deepseek, comme le travail technique profond et difficile de l’entreprise.

Les progrès techniques réalisés par Deepseek comprenaient des puces AI moins puissantes mais moins chères (également appelées unités de traitement graphique, ou GPU).

Deepseek n’avait pas d’autre choix que de s’adapter après que les entreprises américaines ont interdit d’exporter les puces d’IA les plus puissantes en Chine.

Alors que les entreprises de l’IA occidentale peuvent acheter ces unités puissantes, l’interdiction d’exportation a forcé les entreprises chinoises à innover pour tirer le meilleur parti d’alternatives moins chères.

Une série de poursuites

Les conditions d’utilisation d’OpenAI indiquent explicitement que personne ne peut utiliser ses modèles d’IA pour développer des produits concurrents. Cependant, ses propres modèles sont formés sur des ensembles de données massifs grattés du Web. Ces ensembles de données contenaient une quantité substantielle de matériel protégé par le droit d’auteur, qui a déclaré Openai qu’elle a droit à une utilisation sur la base de « l’utilisation équitable »: « La formation des modèles d’IA utilisant des documents Internet accessibles au public est une utilisation équitable, comme le soutient les précédents de longue date et largement acceptés .

Cet argument sera testé devant le tribunal. Les journaux, musiciens, auteurs et autres créatifs ont intenté une série de poursuites contre Openai pour une violation du droit d’auteur.

Bien sûr, cela est assez distinct de ce qu’Openai accuse Deepseek de faire. Néanmoins, Openai n’attire pas beaucoup de sympathie pour son affirmation selon laquelle Deepseek a récolté illégalement sa production de modèle.

La guerre des mots et des poursuites est un artefact de la façon dont la progression rapide de l’IA a dépassé le développement de règles juridiques claires pour l’industrie. Et bien que ces événements récents puissent réduire le pouvoir des opérateurs opérationnels de l’IA, beaucoup dépend de l’issue des divers litiges juridiques en cours.

Secouer la conversation mondiale

Deepseek a montré qu’il est possible de développer des modèles de pointe à moindre coût et efficacement. Il reste à voir s’ils peuvent rivaliser avec OpenAI sur un terrain de jeu.

Au cours du week-end, Openai a tenté de démontrer sa suprématie en publiant publiquement son modèle de consommation le plus avancé, O3-Mini.

OpenAI affirme que ce modèle surpasse considérablement même sa propre version précédente de leader du marché, O1, et est le « modèle le plus rentable de notre série de raisons ».

Ces développements annoncent une ère de choix accru pour les consommateurs, avec une diversité de modèles d’IA sur le marché. C’est une bonne nouvelle pour les utilisateurs: les pressions concurrentielles rendront les modèles moins chers à utiliser.

Et les avantages s’étendent davantage.

La formation et l’utilisation de ces modèles confèrent une pression massive à la consommation mondiale d’énergie. À mesure que ces modèles deviennent plus omniprésents, nous bénéficions tous d’améliorations à leur efficacité.

La montée de Deepseek marque certainement un nouveau territoire pour la construction de modèles à moins cher et efficacement. Peut-être que cela secouera également la conversation mondiale sur la façon dont les entreprises d’IA devraient collecter et utiliser leurs données de formation.