Nouvelles Du Monde

Non, Nvidia n’ouvre pas la boîte de Pandore avec DLSS 3.0

Non, Nvidia n’ouvre pas la boîte de Pandore avec DLSS 3.0

Nvidia dans le rôle d’un sale tricheur

Le peuple Ajjak est souvent divisé en deux groupes irréconciliables. On choisit Malla deuxième Ma chérie. Désolé, une fois c’est AMD × Intel, la deuxième fois c’est AMD × Nvidia, la troisième fois c’est Samsung × Apple, une autre fois c’est Windows × macOS ou Chrome × Firefox. Ou GNOME × KDE, X11 × Wayland, systemd oui × systemd non, et ainsi de suite. Mais il y a rarement une réconciliation. En bref, les joueurs peuvent utiliser Nvidia, les utilisateurs de Linux ne le peuvent pas. Peu importe si c’est sa faute ou sa réputation. Mais souvent la réputation est plutôt négative. Il y a différents arguments : il a été volé par 3Dfx, qui a ensuite fait faillite et a été racheté par Nvidia pour mettre fin au procès en cours sur son essence même. Une autre fois, il a acheté Ageia avec PhysX afin de hacher le PhysX raisonnablement fonctionnel sur les produits AMD et Intel et de le déplacer vers ses GPU. À d’autres moments, le système de synchronisation G-SYNC était conditionné par la présence d’un processeur plus ou moins inutile dans les moniteurs LCD. Il est rare de trouver quelque chose où toute la communauté s’accorde à dire que Nvidia l’a proposé et ce fut un développement tout à fait positif, y compris le concept même de la mise en œuvre de la chose par Nvidia.

DLSS n’est qu’une autre technologie de ce type qui peut être considérée soit comme une voie révolutionnaire incroyable, mais aussi comme une grosse arnaque sur les joueurs et une falsification de facto des références dans les critiques de cartes graphiques. Tout comme PhysX, 3D Vision ou RTX, le DLSS se retrouve également au fil du développement de cette technologie. Alors permettez-moi de partager une opinion personnelle aujourd’hui.

Qu’est-ce que Nvidia essaie réellement de faire ?

Au départ, je dois honnêtement admettre mon attitude envers cette entreprise californienne. Au cours des deux dernières décennies environ, j’ai utilisé quelque chose avec le nom GeForce quatre fois au total, et à chaque fois, c’était un produit que j’avais personnellement choisi et acheté. GeForce mieux que Radeon à l’époque, pourrait-on dire. En revanche, Radeon l’a remporté trois fois pour moi, et dans les deux derniers cas grâce au support sur Linux. Je n’aime pas Nvidia précisément à cause de son attitude envers Linux, bien que beaucoup de ses produits soient vraiment bons, souvent meilleurs que les Radeon concurrents. La dernière fois que j’ai testé des produits haut de gamme comparables des deux fabricants, j’ai décerné à la Radeon HD 7970 et à la GeForce GTX 680 une médaille d’or il y a environ 10 ans.

Matériel pas assez pour les jeux

Tout le battage médiatique autour de DLSS – ou la technologie FSR similaire chez AMD / le prochain XeSS similaire chez Intel – est basé sur un argument simple, mais rappelons-nous d’abord ce qu’est DLSS. DLSS n’était pas Super échantillonnage d’apprentissage en profondeur est un package technologique basé sur l’apprentissage automatique qui peut améliorer la qualité de l’image rendue (par exemple dans les jeux) afin que le résultat soit plus détaillé et rendu dans une résolution plus élevée. Pour faire simple : là où la GeForce RTX 4090 ralentirait le jeu donné en 4k dans les détails les plus élevés à seulement 40fps, avec l’aide de DLSS, elle le ralentit à 60 fps pour qu’il soit rendu en 2560×1440 avec mise à l’échelle ultérieure de l’IA à 3840 × 2160. 60 ips seront maintenus, la qualité d’image sera à pixel lorgnant des images fixes visiblement pires qu’avec le 4k natif, mais dans l’agitation du jeu, le résultat sera la même expérience qu’avec le 4k natif. En fait plus gros car 40fps au lieu de 60fps.

Lire aussi  Le jeune Corkman acquitté du viol d'une fille à l'âge de 16 ans lors du feu de joie de la Saint-Patrick

La première génération de DLSS était encore “tellement humpolaky” avec quelques erreurs visibles dans le rendu. DLSS 2.0 a considérablement amélioré les choses, car il incluait les données des images environnantes dans le calcul de la mise à l’échelle de l’image pour une résolution plus élevée, c’est-à-dire non seulement un facteur spatial mais aussi temporel. DLSS 3.0 va encore plus loin, la carte graphique “joue beaucoup plus avec elle dans le rendu de la scène de jeu” et effectue même le calcul par IA d’images supplémentaires qui n’ont même pas été créées sur le GPU. Semblable à lorsque votre téléviseur intelligent ajoute des images qui n’existent pas pour rendre la vidéo que vous lisez plus fluide.

Informations plus détaillées sur DLSS 3.0 écrit par Jan Olšan sur Cnews concernant présentation officielle de la GeForce RTX 4000.

Problème au nom de 4k

Il y a quelques années, nous vivions dans une situation où la résolution la plus élevée couramment utilisée pour l’écran d’un joueur était de 1920 × 1080, ou 1920×1200. Plus généralement non, même si ici et là certains utilisaient des moniteurs 27 pouces avec une résolution de 2560×1440, ou des moniteurs 30 pouces avec 2560×1600. Les cartes graphiques avec les GPU les plus puissants ont assez bien réussi à suivre le rythme du développement, de sorte que pour les nouvelles versions plus exigeantes des moteurs de jeu, elles ont pu offrir des performances fluides (nous n’étions pas si fous alors, c’était donc environ 30 fps et plus) dans ces résolutions. Mais ensuite 4k est arrivé, c’est-à-dire 3840 × 2160 et en plus nous avons commencé à chercher un affichage stable à 60 fps, ou après G-Sync / FreeSync, dans la gamme des moniteurs à la 40-144 Hz.

À ce stade, les GPU ont cessé de suivre le rythme. de 1920×1080 à 30 fps est soudainement devenu 3840×2160 avec des valeurs de fps plus élevées – la nouvelle génération de GPU doit offrir plus que les précédentes ! Et en plus de cela, Nvidia a proposé une autre tentative (réussie, je dois ajouter) d’un tirage au sort unique pour les joueurs, à savoir le raytracing accéléré par GPU. Les GeForce RTX 2080 et autres cartes de cette génération sont arrivées.

DLSS est donc une issue logique. La résolution a augmenté les besoins en puissance de calcul du GPU de 100 à 400 %. La demande de multiples de fps plus élevés a rendu nécessaire de viser, disons, 200% de la valeur originale de 30 fps. Les moteurs sont également devenus plus exigeants, disons environ +100% de plus. Et en plus, l’effort voire la nécessité de calculer les effets réalisés par le raytracing. Des multiples des performances d’origine ont soudainement été recherchées pour les GPU dans les deux à trois ans, à une époque où la GeForce RTX 2080 Ti 250 W était basée sur le processus de production de GPU TSMC 12 nm, tandis que la GeForce RTX 3090 350 W était basée sur le processus 8 nm de Samsung et maintenant la nouvelle GeForce RTX 4090 a bondi sur la production TSMC 4 nm, mais son TDP est de 450 W.

Lire aussi  Allergie au pollen? Attendez-vous à beaucoup de pollen de bouleau en 2023 - NRK Oslo et Viken - Actualités locales, télévision et radio

Nvidia fait de gros efforts, nous savons que revenir à TSMC et être en bonne position pour occuper les lignes de 4 nm leur a coûté des milliards de dollars payés à l’avance à TSMC. Mais même ainsi, ce n’est tout simplement pas suffisant. Bien que la carte 250W ait d’abord été de 350W et maintenant de 450W (et même jusqu’à 660W, dit-on), aujourd’hui encore ce n’est tout simplement pas assez, pas assez, pas assez pour du 3840×2160/60fps avec raytracing et tous les détails. Le DLSS 3.0 n’est pas une habitude/inutilité, c’est une simple nécessité. En principe, c’est un excellent outil qui permettra à Nvidia de contourner les limites physiques de production avec l’ingéniosité de la technologie.

Qui se soucie vraiment de l’imperfection de la mise à l’échelle de l’IA ?

Mais est-ce que ça va ? Jusqu’à présent, nous étions habitués à ce que lorsqu’un jeu s’affiche en 1080p, ce n’est que 1080p. Aujourd’hui, c’est comme si la résolution 4k ne voulait rien dire. Non, mais c’est comme ça que ça se règle. Quiconque a déjà eu l’occasion de comparer, par exemple, un enregistrement 4k d’un appareil photo sans miroir Panasonic GH4 avec un enregistrement 4k d’un téléphone Android bon marché, sait très bien que les deux sont 4k, mais ce dernier a de vrais détails d’enregistrement plus au Niveau 2k.

Tout critique qui compare DLSS 3.0 à la résolution native sur des images fixes dans son article ou YouTuber sur sa chaîne doit être considéré comme ignorant. Cette technologie ne vise pas une image statique (c’est pourquoi nous avons des outils de photographie comme Topaz AI), elle vise une image changeant toutes les quelques dizaines de millisecondes. Son objectif n’est pas l’achèvement statique, mais la perception d’un joueur ardent. Et si cela est mis en œuvre à l’aide de DLSS 3.0 afin qu’un joueur avec un moniteur 4k obtienne son fluide jusqu’à 144 ips dans la résolution native de l’écran, alors qu’il en soit ainsi.

Les imperfections ne nous dérangent pas. Nous regardons des films avec compression pratiquement depuis le passage de l’émulsion de film aux premières caméras à bande analogiques et aux enregistrements sur cassettes de type Betacam / VHS. Sans oublier les artefacts de compression des formats de la famille MPEG, dont l’avant-dernier H.265/HEVC.

Les imperfections ne nous dérangent pas, même dans les jeux. Après tout, toute cette rastérisation GPU et tout le reste, peut-être à l’exception de ce lancer de rayons, ne sont que des techniques pour rendre le travail similaire à l’original physiquement parfait beaucoup moins coûteux en termes de calcul. On s’en fiche, car si le jeu a de l’ambiance, tout est pardonné.

Même dans le son, on se contente de l’imperfection. Il pourrait s’agir d’une imperfection numérique, comme 256kbit/s AAC ou 768kbit/s 5.1 DTS. Il peut s’agir de fichiers MP3 128kbit/s vieux de 25 ans. Il peut s’agir d’enregistrements sur cassettes audio, alors que peu ont atteint des niveaux supérieurs aux cassettes de type Chrome. Il peut aussi s’agir d’un disque de compromis du type Westrex 45/45, c’est-à-dire un gramophone classique, limité par les capacités mécaniques du transfert. Tout cela est quelque chose auquel nous sommes habitués. En 1971, cela ne nous dérangeait pas que les Echoes de Pink Floyd ne soient pas exactement fidèles à ce que les musiciens jouaient en studio. Cela ne nous dérange pas non plus que l’enregistrement stéréo 16 bits à 44,1 kHz de la mise en scène de Leningrad de Chostakovitch par Neumann ne soit pas un reflet parfaitement fidèle de l’interprétation originale de cette symphonie.

Lire aussi  La NASA remplacera le joint à hydrogène défectueux d'Artemis 1 alors que la fusée est toujours sur la rampe de lancement

Nous finirons par nous habituer à des systèmes même imparfaits comme le DLSS, et si ce n’est pas nous, alors la génération qui traîne le canard dans l’arrière-cour aujourd’hui grandira avec eux et ils seront pour eux un reflet aussi fidèle de la réalité que ce Pink Floyd e-LP est pour nous. Car, après tout, la destination finale est ailleurs.

Le but ultime de tout cela, à mon avis, est même un ordre de grandeur plus loin. Un jour, avec l’aide de techniciens en IA, nous introduirons des données dans des lunettes virtuelles avec une résolution de 32k et un affichage de 120fps. Même un GPU fabriqué avec un processus de 0,01 nm ne pourra pas calculer quelque chose comme ça, donc une IA formée pendant des décennies au nom de la version 15.0 de DLSS va démarrer. Cela peut nous donner une perception presque parfaite, même si 80% de cette perception était constituée d’éléments inventés par l’IA.

Je ne dis pas que ça va. Je suis totalement d’accord avec les historiens qui hurlent de désespoir chaque fois que quelqu’un prend une ancienne séquence de caméra à 10 ips et la fait passer par un réseau de neurones appris par machine qui la colore, la met à l’échelle à 4k et remplit les images à 60 ips. Ce n’est pas historiquement correct, même s’il est parfois intéressant de s’intéresser à de telles rénovations.

C’est toujours vrai que je n’aime pas Nvidia. Mais DLSS est la dernière chose que je lui reprocherais, bien au contraire. Soyons heureux que cette technologie existe, car la pire chose que l’on puisse en dire est le fait qu’elle est soit bénéfique, soit qu’elle peut être désactivée par l’utilisateur. Après tout, imaginez que Nvidia soit vraiment gentil avec nous. Si un jour elle ne nous a pas fait savoir qu’elle avait développé quelque chose comme DLSS 4.0, alors il pourrait facilement arriver que dans 1 an à compter du lancement d’un GPU de nouvelle génération, l’un des éditeurs informatiques découvre que quelque chose ne va pas dans les captures d’écran des jeux. Enfin, ils identifient avec un certain degré de certitude que Nvidia ne rend pas réellement le jeu à 3840×2160 / 144fps, mais plutôt à 2560×1440 / 60fps et fait le reste, mais cela pourrait surprendre la plupart des joueurs qu’ils n’ont pas remarqués jusqu’à aujourd’hui. Au lieu de cela, nous avons des descriptions détaillées du fonctionnement de la technologie (maintenant DLSS 3.0). Ouverture inhabituelle sur le Nvidia autrement plutôt fermé.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT