Comment installer les nouveaux modèles GPT-OSS d'Openai sur votre ordinateur pour avoir votre propre chatppt à la maison

Comment installer les nouveaux modèles GPT-OSS d'Openai sur votre ordinateur pour avoir votre propre chatppt à la maison

OpenAI a annoncé de nouveaux modèles que n'importe qui peut télécharger et installer sur son ordinateur: GPT-ASS. Avec ceux-ci déjà dans la rue, c'est une excellente occasion de commencer à remuer avec l'IA en local, c'est-à-dire exécuté sur notre ordinateur, donc nous allons vous apprendre aujourd'hui à les installer et à les utiliser.

Différences entre les deux modèles

Bien qu'ils soient appelés de manière similaire, GPT-ASS-120B et GPT-OSS-20B ne sont pas exactement les mêmes ou ont les mêmes exigences. Le premier modèle, GPT-OSS-120B, atteint une parité près de l'Openai O4-MinI et nécessite au moins 60 Go de mémoire graphique.

Avoir votre propre chatppt à la maison est facile, mais cela nécessite une équipe en hauteur | Image: xataka

Avoir votre propre chatppt à la maison est facile, mais cela nécessite une équipe en hauteur | Image: xataka

Son petit frère, GPT-OSS-20B, est un peu moins capable (similaire à O3-Mini, selon Openai), mais il peut être exécuté sur des appareils d'une autre manière, il peut être exécuté sur votre propre ordinateur à condition qu'il ait au moins 16 Go de mémoire, de préférence graphique.

En résumé:

  • GPT-OSS-120B: grand modèle, vous avez besoin d'au moins 60 Go de VRAM ou de mémoire unidiquée et ne convient pas aux ordinateurs grand public.
  • GPT-OSS-20B: modèle plus petit, a besoin de 16 Go de VRAM ou de mémoire unifiée et convient aux ordinateurs grand public.

Celui que nous allons utiliser, pour des raisons évidentes, est GPT-ASS-20B.

Considérations à prendre en compte

L'exécution d'une IA comme dans le local est un processus intensif qui peut provoquer, et sûrement, que votre ordinateur ralentit beaucoup. Bien que vous puissiez l'exécuter avec 16 Go de RAM, l'idéal est que votre équipe a un GPU élevé.

Que se passera-t-il si votre ordinateur a moins de 16 Go de mémoire VRAM? Que l'outil utilisera RAM, dont la figure doit être égale ou supérieure à 16 Go. Sinon, le système ne fonctionnera pas correctement. En tant que recommandation générale, l'idéal est de consacrer toutes les ressources possibles de votre ordinateur à l'exécution du modèle, donc il ferme tout ce qui n'est pas strictement nécessaire.

Installez Olllama sur votre ordinateur

Installation d'Olllama | Image: xataka
Installation d'Olllama | Image: xataka

Installation d'Olllama | Image: xataka

Pour ce tutoriel, nous utiliserons une application bien connue: Olllama. Il s'agit d'une plate-forme open source qui simplifie, et beaucoup, l'installation, l'accès et l'utilisation de LLM (modèles de grande langue). Disons qu'il est un exécuteur testamentaire de modèles.

Chatgpt est une plate-forme en ligne à travers laquelle nous interagissons avec un modèle, comme GPT-4O. Olllama est le même, mais à la maison et avec les modèles que nous avons installés sur notre ordinateur. Il s'agit d'un logiciel gratuit et open source et disponible pour Windows, Mac et Linux.

Télécharger GPT-ASS

Une fois que nous aurons téléchargé et installé le programme sur notre ordinateur, nous trouverons une interface comme celle-ci. Si vous le souhaitez, vous pouvez également utiliser l'ancien olllaa via l'interface de commande, mais la vérité est que l'interface graphique est beaucoup plus agréable.

Interface principale de Olllama | Image: xataka
Interface principale de Olllama | Image: xataka

Interface principale de Olllama | Image: xataka

Si nous regardons, nous verrons une goutte en bas dans la zone en bas à droite avec le nom du modèle que nous utilisons ou cela, nous utiliserons plutôt.

Accès aux différents modèles d'IA de Olllama | Image: xataka
Accès aux différents modèles d'IA de Olllama | Image: xataka

Accès aux différents modèles d'IA de Olllama | Image: xataka

Si nous cliquons sur la goutte-down, nous pouvons accéder à une bonne poignée de modèles, tels que Deepseek R1, Gemma ou Qwen. Dans le cas, nous sommes intéressés à sélectionner « GPT-ASS: 20B ».

Téléchargement du modèle, Armate of Patience | Image: xataka
Téléchargement du modèle, Armate of Patience | Image: xataka

Téléchargement du modèle, Armate of Patience | Image: xataka

Après avoir sélectionné « GPT-ASS: 20B », il suffira d'envoyer un message dans le chat pour commencer le téléchargement du modèle. À Patience, car il pèse 12,8 Go et peut prendre un certain temps.

Parler à GPT-OSS-20B via Olllama | Image: xataka
Parler à GPT-OSS-20B via Olllama | Image: xataka

Parler à GPT-OSS-20B via Olllama | Image: xataka

Une fois installé, vous pouvez commencer à parler avec l'IA comme s'il s'agissait de chatte. Bien sûr, si votre GPU ne répond pas aux exigences minimales, vous verrez qu'il est beaucoup plus lent que Chatgpt. Sans surprise, vous exécutez le modèle sur votre ordinateur, et non dans un macrocenter de données plein des derniers GPU dédiés de NVIDIA.

Une autre option: LM Studio

LM Studio | Image: xataka
LM Studio | Image: xataka

LM Studio | Image: xataka

Olllama a l'avantage d'être intuitif, simple et direct. Si nous voulons plus d'options, un programme beaucoup plus complet est LM Studio. Ceci est disponible pour Windows, Linux et Mac et, comme Olllama, est capable de gérer plusieurs modèles, GPT-OSS: 20B parmi eux.

Il s'agit d'une application plus avancée qui nous permet de mieux ajuster à la fois le comportement de notre ordinateur et celui du modèle, bien que le compression du maximum nécessite des connaissances plus avancées.

Image de couverture | Simseo

Dans Simseo | Comment passer de l'image à la vidéo à l'aide de l'intelligence artificielle: 14 outils gratuits essentiels