Commentaires : NVIDIA lance le DLAA avec The Elder Scrolls Online

Non, non, il n’est pas question d’une faute de frappe sur le DLSS, mais bien d’un autre outil mis en place par NVIDIA.

1 « J'aime »

Je suis sûr que ça n’a rien à voir avec les critiques sur les Tensor Cores qui ne sont plus un atout puisque le FSR de AMD fait la même chose (et parfois même mieux) sans utiliser les Tensor Cores et surtout ça marche avec toutes les Cartes Graphiques.

Si le FSR était sorti que chez AMD y aurait pas de problème mais là il marche même sur les RTX 2000 et 3000 et ils donnent le même résultat si ce n’est mieux sans les fameux coeurs dédiés à l’intelligence artificielle.

Au final AMD a prouvé que le hardware ne fait pas tout et qu’avec le Software on peut faire des merveilles !

Certains critiquent même le patron de Nvidia qui a présenté les Tensor Core comme une révolution du genre … et si AMD avait lançait le FSR à ce moment là et bien Nvidia aurait changé de discours !

Donc faut bien trouver une utilité intéressante à ces Tensor Cores (dédiés à l’intelligence artificielle) pour justifier leur présence.

2 « J'aime »

C’est assez fou de voir à quel point Nvidia avance et innove sur les nouvelles technos

Ils sont certains qu’il n’y a pas d’upscale?
L’une des premières idées que j’ai eu en voyant la description du DLSS c’est que ce serait pas mal comme base pour faire un genre de MSAA à l’ancienne, amélioré.
Au lieu de partir d’une définition inférieure on part de la native que l’on upscale et améliore, puis on y redescend en fin de traitement. Un type de uber sampling à la the witcher 2, via du dlss dévoyé en gros.
Bon c’est vrai que si le travail d’amélioration suffit c’est pas la peine de passer par de l’upscale :wink:

N’importe quoi… Il suffit de regarder les résultats des deux technologies en face pour voir que la solution d’AMD est atomisée par le dlss d’Nvidia.

Sans compter que les tensor cores permettent le raytracing en temps réel ainsi que des calculs de simulations dix fois plus poussés, de l’IA… Rien d’équivalent chez AMD.

Je dis ça alors que j’adorerais qu’Nvidia ait un concurrent à la hauteur, leur monopole sur le hardware me fait très peur pour la suite. Sauf que pour l’instant, AMD est très loin derrière.

3 « J'aime »

AMD est loin c’est vrai, mais propose quelque chose de simple et efficace. On en demande pas des tonnes.

Atomisé non, le DLSS est légèrement devant mais c’est tout, l’avantage du FSR c’est son intégration et son ouverture.

Les puces AMD permettent aussi le ray tracing en temps réel etc.
De quels calculs de simulation parles tu ? (parce que comme ça, ça veut rien dire).
De l’IA ? oui on le voit que l’IA a bien progressé les 15 dernières années pour être au mieux au même niveau qu’avant, surtout que c’est calculé par le CPU généralement.

Ben voyons, atomisé, rien de moins.

Source ?

Et comment ça « dix fois plus poussés ? »

Edit : Avant qu’on vienne me casser les pieds avec un « t’es pro AMD ».
Je suis précisément passé d’une longue série de cartes ATI / AMD à du Nvidia, juste parce que cette dernière correspondait plus à mes besoins actuels.
Sans compter la problématique actuelle de dispo …

1 « J'aime »

Embergen, Houdini, Octane render, Redshift, les moteurs realtime comme VVVV… Je parle d’applications pros qui tirent avantage des tensor cores comme architecture dédiée, les perfs en terme de temps de rendus sont décuplées dans certains cas.

En ce qui concerne le real time ray tracing, la solution AMD propose au mieux des réflexions temps réel ou des hard/soft shadows plus ou moins réussies mais pas de véritable path tracing (pour le moment).

Le FSR est un supersampling à peine caché avec du sharpening derrière, la solution Nvidia s’appuie sur un training d’IA qui s’améliore à chaque version, c’est le jour et la nuit, ce qui amène parfois certains modes DLSS à dépasser en qualité la résolution native.

Je ne veux pas bâcher AMD, j’aimerais que leurs solutions soient à la hauteur de l’enjeu, surtout qu’elles sont ouvertes à tous les hardware ce qui devrait être la règle. Mais affirmer comme ça l’est plus haut que l’annonce du FSR aurait amené Nvidia à « réfléchir », je maintiens, c’est n’importe quoi.

J’espère sincèrement que l’avenir me donnera tort, je répète que l’avancée technologique d’Nvidia et le monopole qu’elle entraîne ne me dit rien qui vaille… Au niveau professionnel, je ne peux hélas pas m’en passer (ce que j’ai fait volontiers contre intel en adoptant les threadrippers qui sont eux de véritables bijoux).

3 « J'aime »

Le DLSS de Nvidia est supérieur au FSR, surtout en basse résolution, personne ou presque ne le nie. Pourtant l’arrivée du FSR a fait très mal à Nvidia en terme d’image. Nvidia a tellement insisté, matraqué, que les avantages de leurs GPU venaient de leur hardware propriétaire ultra top moumoute que lorsque AMD a sorti sa solution, pas aussi bonne, certes, mais tout de même assez proche pour satisfaire 99% des gens et qui ne nécessitait aucun tensor schmurtz et autre deep-learning-machin-mes-genoux, ils ont été complètement démentis.

Cela a été un vrai camouflet pour Nvidia, les faisant passer pour des bonimenteurs. En plus en rendant sa solution cross-plateforme et open-source, AMD a fait passer Nvidia pour des égoïstes mesquins, par comparaison.

Donc, si AMD avec son FSR n’a pas gagné la guerre technologique, il a nettement gagné la guerre de l’image, au moins sur cette partie là et commercialement c’est ce qui compte le plus.
Le DLSA est possiblement un moyen pour Nvidia de se remettre en avant mais c’est un peu piteux à mon avis. Quel gain des cartes aussi puissantes que des RTX pourraient elles tirer d’un upscalling d’AA et surtout qu’est ce qui empêchera AMD d’intégrer une solution équivalente à son FSR dans de futures versions.

Exactement ce que @galaxyexpress999 dit:

Essayez de faire du rendu 4K avec Octane + AMD…
Je pouffe d’avance!

Il faut faire la part des choses :
Pour les gamers, nVidia ou AMD c’est kif kif hein. Pas la peine de tergiverser… a quelques % de difference une fois d’un cote une fois de l’autre.

Pour les applications hors gaming l’avantage est a nVidia.

2 « J'aime »

« c’est le jour et la nuit, ce qui amène parfois certains modes DLSS à dépasser en qualité la résolution native. »

Merci pour la video, mais comme il y a du bon et du mauvais dans chacun des rendus, je trouve que la comparaison n’est pas si facile. De plus on ne peut pas affirmer qu’un rendu est meilleur qu’un autre, si c’est juste une question de dosage de l’acutance (pour ne pas dire de surdosage lorsque cela va à l’encontre de la profondeur de champ). En d’autre terme, si l’on peut retrouver un rendu aussi flatteur d’un simple clic sous Photoshop, c’est que la qualité est en fait similaire. Ce que l’on attend d’une IA c’est justement qu’elle fasse mieux qu’un rehaussement d’agrandissement, en apportant de l’information supplémentaire (tout en limitant la monté du bruit et du moirage). Sauf que justement, s’il faut agrandir l’image à 300% pour pouvoir l’observer (dans certain cas seulement), c’est bien que la démonstration n’est pas « le jour et la nuit ». Par contre, l’avantage flagrant du DLSS, c’est qu’il fait d’une pierre deux coup en faisant office d’AA temporel ! Bref, j’ai hâte de voir ce DLAA à l’œuvre, car en général, les bons AA sont des gloutons…

« Pour les applications hors gaming l’avantage est a nVidia. »
Non justement tu es plus dépendant du logiciel utilisé que du matos.

Alors je n’en sais rien pour les applications de rendu… Mais les AMD sont toujours devant sur l’OpenCL (voir même quelques fois quand c’est Nvidia/Cuda vs AMD/OpenCL), avec une facilité de codage nettement meilleure (gestion mémoire bien plus simple, puissance brute dispo quasiment sans optimisations) à gamme de prix équivalente.
Les applis de rendus ne seraient-elles pas optimisées uniquement pour le Cuda?

J’attends aussi ce DLAA et comme bon nombre de joueurs attendent la résolution des nombreux bugs qui plombent le plaisir de jouer… Le PVP pour exemple…

Et ça n’est pas les maintenances à répétition qui changent quoique ce soit. Et malheureusement le DLAA ne changera rien en ce sens…

Heh ?? Rien à voir … Le Raytracing est géré par les RT Cores d’ailleurs même chez AMD ils ont des RT Cores … Les tensor cores ne servent presque à rien pour le Gaming !

On parle de Gaming aux dernières nouvelles … et on sait tous que hors gaming Nvidia est devant surtout dans l’encodage vidéo.

C’est fou à quel point t’es naïf … si t’appelle ça l’innovation ??? y a des gens qui cherchent comment devenir immortel (non c’est pas une blague y a vraiment des recherches sur ça) sans parler des innovations non connues du grand public !

Si Nvidia te présente ces technos … imagine les technos qu’elle ne présente pas et qu’elle garde secrètes :smiley:

Ce qu’on voit à la Télé c’est pas de la science fiction à 100% … y a des choses qui existent vraiment mais que c’est ultra confidentiel !

Ta regardé d’autres vidéos ou juste celle là ? y a des jeux où le FSR est meilleur en qualité et en performances faut pas juste voir quelques jeux car tout dépend des développeurs !

Et puis pense ce que tu veux la réalité est là … le FSR est un coup dur pour Nvidia car il ne dépend ni du hardware ni d’un fabricant il est libre en plus facile à intégrer dans les jeux.

Le FSR est à peine arrivé qu’il est déjà intégré à beaucoup de jeux contrairement au DLSS goutte à goutte.

Ah ok, et les antennes 5G c’est un coup des reptiliens ? :slight_smile: