Intel rapporte des graphiques à haut rendu avec des GPU à faible consommation
En visant l’évolution des unités de traitement graphique dans un univers croissant d’IA générative, Intel a annoncé la publication de plusieurs articles décrivant les efforts qu’il poursuit dans ce que les observateurs considèrent comme une opportunité de plusieurs milliards de dollars dans les années à venir pour le géant des puces à semi-conducteurs.
Intel présente sept articles sur trois conférences couvrant les progrès de l’infographie.
Les premiers articles ont été officiellement présentés lors de la conférence conjointe du mois dernier organisée par le forum High Performance Graphics (HPG) et le Symposium Eurographics sur le rendu à l’Université de technologie de Delft aux Pays-Bas. Les articles restants seront discutés lors d’une conférence organisée par SIGGRAPH (Special Interest Group on Computer Graphics and Interactive Techniques) en août.
L’accent est mis sur la façon d’améliorer les processus de rendu graphique historiquement lourds.
Les articles traitent de deux processus en particulier, le lancer de rayons et le traçage de chemin. Les deux sont utilisés pour recréer des images réalistes, en particulier dans les jeux, où une représentation précise de la physique de la lumière est essentielle pour des images d’aspect naturel.
Le lancer de rayons applique des algorithmes pour suivre la trajectoire des ondes lumineuses et calculer les valeurs de couleur, les reflets et les ombres. L’énorme puissance de traitement requise pour le rendu en temps réel est si importante que les fréquences d’images en pâtissent souvent.
Le traçage de chemin peut nécessiter un traitement encore plus lourd. Il suit plusieurs rayons de lumière, suivant les chemins lorsqu’ils se reflètent sur les surfaces et interagissent avec l’éclairage, entre autres éléments. Un processus connu sous le nom d’intégration de Monte Carlo permet de déterminer des valeurs de couleur et d’ombrage précises.
Intel affirme que ces méthodes de traçage peuvent être réalisées plus efficacement. L’un de ses articles, « Sampling Visible GGX Normals with Spherical Caps », décrit une approche innovante du calcul des éléments hémisphériques qui a permis « d’accélérer systématiquement nos benchmarks ».
Un autre article révèle une amélioration de 500 % de la vitesse des rendus d’objets « brillants » tels que les peintures de voiture mouchetées, la neige, les plastiques moulés et l’eau courante. « Real-Time Rendering of Glinty Appearances using Distributed Binomial Laws on Anisotropic Grids » explique que les approches actuelles atteignent un réalisme étonnant mais « ont un coût très élevé » en termes de puissance et de vitesse de traitement.
Dans un article qui sera discuté lors de la conférence SIGGRAPH d’août, Intel passera en revue les progrès des graphiques neuronaux, une approche qui, selon la société, « révolutionne le domaine graphique ». Il est utilisé pour mettre rapidement à l’échelle des graphismes de haute qualité dans les jeux et les films.
« Le nouveau niveau de représentation neuronale des détails atteint une compression de 70 % à 95 % par rapport au traçage de chemin » vanille « », a rapporté Intel.
D’autres articles examinent les améliorations des rendus de matériaux translucides et « l’échantillonnage des trajectoires de photons dans des scénarios d’éclairage difficiles ».
En fin de compte, Intel espère que des progrès significatifs dans les approches de traitement permettront aux utilisateurs de profiter d’images réalistes en temps réel sans nécessiter de GPU haute puissance.
« Les nouveaux blocs de construction présentés lors des conférences de cette année, ainsi que notre large offre de produits GPU et notre pile de rendu inter-architecture évolutive, aideront les développeurs et les entreprises à effectuer un rendu plus efficace des jumeaux numériques, des futures expériences AR et VR immersives, ainsi en tant que données synthétiques pour la formation sim2real AI », a déclaré Intel dans son blog.
Intel prévoit de rendre son travail open source.
Les articles d’Intel sont apparus tout au long du mois de juin sur le serveur de préimpression arXiv.