C’est ainsi que NVIDIA RTX améliore sa qualité et sa définition grâce à l’IA
S’il y a un gagnant dans tout le phénomène de l’IA générative, c’est bien NVIDIA. Le constructeur est devenu un ingrédient indispensable pour ceux qui travaillent avec ces modèles et les proposent ensuite au grand public, mais il profite également depuis quelques temps de la capacité de ses cartes graphiques gaming pour ce domaine. Maintenant arrivent des nouvelles qui touchent précisément les deux disciplines : que vous utilisiez une GeForce RTX pour jouer ou pour utiliser des modèles d’IA générative sur votre PC ou ordinateur portable, faites attention, cela est encouragé.
Super résolution vidéo RTX (VSR). C’est le nom de la nouvelle technologie de mise à l’échelle vidéo qui utilise l’intelligence artificielle et tire parti des cœurs Tensor des cartes graphiques NVIDIA GeForce RTX pour améliorer la qualité vidéo sur Internet. Ce système – différent du DLSS – élimine les artefacts de compression, en plus d’améliorer la netteté et la clarté du contenu en ligne, qu’il soit issu de Twitch, YouTube ou Netflix, par exemple. Les navigateurs officiellement compatibles avec cette technologie sont Google C.hrome et Microsoft Edge
Parfait pour profiter en haute résolution. Comme l’explique NVIDIA, cette technologie est parfaite lorsque nous avons des moniteurs 1440p ou 4K et que nous voyons le contenu en résolution 1080p ou inférieure. Dans les cas où cette technologie vous permet de profiter de ces contenus FullHD dans ces hautes résolutions comme si ces contenus étaient presque diffusés nativement dans cette résolution.
RTX VSR1.5. Bien que la technologie de NVIDIA ait déjà été annoncée en février, la nouvelle version 1.5 améliore encore la qualité et étend son support, étant désormais également disponible sur les RTX 2000 en plus des 3000 et 4000. Un nouveau processus de formation a peaufiné le modèle, qui identifie désormais mieux différences entre les détails subtils et les artefacts de compression.
Une IA générative plus rapide. NVIDIA a introduit la bibliothèque Open Source TensorRT-LLM pour Windows. Avec lui, les performances des grands modèles de langage sont accélérées jusqu’à 4x, et ils donnent comme exemples Llama 2 et Code Llama. Cela signifie que désormais ces modèles installés sur nos PC généreront des réponses plus rapidement, ce qui est important pour qu’ils se comportent aussi bien, voire mieux, que les alternatives cloud telles que ChatGPT ou MidJourney.
La diffusion stable vole. La technologie Tensor core s’est améliorée et permet par exemple de doubler les performances de Stable Diffusion. Sur un RTX 4090 et avec la WebUI d’Automatic1111, la distribution la plus populaire de ce modèle d’IA générative, générer une image est 7 fois plus rapide qu’avec un Mac équipé de l’Apple M2 Ultra, affirme NVIDIA.