Commentaires : 240p/360p : DLSS 4.5 transforme une bouillie de pixels en une expérience plus que correcte

Et bien moi, pour ma tranquillité d’esprit, j’aimerais bien voir un jeu non passé par les mains de Nvidia se voir appliquer un mod DLSS 4.5 et être ensuite réglé pour faire de l’upscalling 240 vers 720. Juste pour voir.

Quel dommage que le DLSS ne soit pas open source, contrairement au FSR, car du coup ça n’arrivera jamais. C’est vraiment ballot.

Perso, le premier intérêt que je vois, serait dans les vieux jeux pour les mettre en 1080 ou 2k+

La plupart du temps c’est opaque, il y a des tableaux de correspondance, généralement en mode qualité, c’est du 720p pour 1080p, et 1080p pour 2k.
Certains jeux affiche clairement la résolution d’origine, control fait ça de souvenir

« Où c’est encore une démo sans aucun sens? » « Techniquement aucun intérêt »
Toutes ces technologies, largement traitées par NVidia, AMD, Intel ont un objectif clair: le streaming de Jeux Vidéos.
Vous n’aurez plus de cartes graphiques: les technos de ce genre permettront de streamer des flux de résolution parfois très inférieures.
Il y a aussi une partie de ces technos qui génèrent des frame « en avance » pour traiter du cas des lags: quelques ms de frames générées « au pif » sans contact avec le serveur (on le fait déjà pour tous les jeux en ligne - il y a ensuite un rattrapage par le moteur du jeu pour coller à la situation réelle)
Cela va aussi permettre de streamer les films (il y a déjà des codecs avec un flux FHD, et deux flux complémentaires: des indices pour qu’une IA génère la 4K et le complément 4K)
Et pour info: certains travaillent aussi sur cela pour le son (génération du son à l’avance + resynchro).

Le prix des CG augmente, les US équipent les datacenters de milliers de CG, ça ne vous dit rien? Si jamais l’IA ne décolle pas, vous jouerez à distance par abonnement, puisque de toutes façons vous n’aurez plus de CG à disposition. Normal, puisque le marché des JV est en train de glisser hors US - là ils se parent en devenant LE futur pourvoyeur de média universel.

1 « J'aime »

« je me demande dans quelle mesure le DLSS adapte vraiment les graphismes »
Quelques essais avec les démos comme https://www.techpowerup.com/download/amd-fsr-super-resolution-demo/ devraient aider à te convaincre.
Ces technos utilisent plusieurs images basse réso pour créer une image plus haute résolution.
Mais attention! C’est fait par IA et l’IA a travaillé sur des modèles! Donc elle sait « deviner » ou « imaginer » ce que devrait être l’image. Sur un jeu aux graphisme très marqués, je ne suis pas convaincu que le résultat n’aura pas plusieurs glitches.
Je ne suis même pas sûr qu’on ne puisse pas fournir quelques paramètres au modèle jeu par jeu.
Pour rappel: actuellement, on ne vous montre de l’IA que ce qui fonctionne bien. Quand on voit une vidéo réalisée par IA, on ne sait souvent pas combien de « déchets » il a fallu pour en arriver là.

1 « J'aime »

Bonne analyse, et tu as sans doute raison en ce qui concerne Nvidia qui possède un service de cloud gaming.

Effectivement, si le matériel devient inabordable ou que les jeux deviennent si gourmands que seuls les cartes les plus chères arrivent à les faire tourner, le réflexe pourrait être de se réfugier vers le cloud gaming. Je sais que c’est ce qui s’est passé lors de la précédente pénurie. C’est un peu le même principe avec les voitures en LLD : on encourage à mort ce système au lieu de fabriquer des voitures pas chères.

En fait, bien qu’on rentre ici dans le domaine du spéculatif à la limite du complotisme, la pénurie de mémoires liée à l’IA, donc à Nvidia et OpenAI/Microsoft, peut aussi faire les affaires des services de cloud, que ces deux entreprises possèdent.

Par comparaison, Intel et AMD n’ont pas de service de cloud gaming et tirent leur revenu de la vente de matériel. Alors ce genre de calcul ne doit pas les arranger du tout, au contraire.

C’est le DLSS que je voudrais voir à l’œuvre sans avoir le doute qu’il y a eu magouille, donc sans que Nvidia soit impliqué. Je n’ai pas le même problème avec le FSR du fait qu’il est open-source et qu’il est donc bien plus facile de savoir ce qu’il peut faire et ce qu’il ne peut pas faire. Tricher serait beaucoup plus compliqué et beaucoup plus risqué.
Merci quand même, je vais regarder.

1 « J'aime »

Le logo racing team étant lui en ligne, il a contribué a l’apprentissage de l’IA. Les motos également etc etc

Les motos, peut-être. Le logo, je ne pense pas. En tout cas, dans Google Images, je ne le trouve ni avec une recherche textuelle, ni avec une recherche visuelle.

Tu penses trop normes vidéo! Tu peux avoir n’importe quel définition verticale en photo comme en vidéo, mais chaque norme à sa définition (VHS, VGA, HD, FHD, etc).
Et effectivement le ‹ p › n’a pas vraiment de sens en photo, mais c’est un petit abus de langage que tout le monde comprend comme une définition verticale. :slight_smile: On pourrait dire lignes?

Heu… Tu confond les normes de sorties vidéo et les formats « standard » utilisés en vidéo de type broadcast.

En Vidéo on parle principalement de « HalfSD » (320x240 ou 360x240), de « SD » (720x576 ou 720x480), « HD » (1280x720), « FHD » (1920x1080) et 4K (3840x2160). Le reste des formats sont surtout (et uniquement) utilisés par les PC (960, 1440, …) qui eux, n’ont pas de normes à suivre si ce n’est celle de leur « display ».

Le « p » signifie que l’image est « progressive ». c’est à dire une image complète par « frame » (équivalent à une image photo complète). C’est le système qui est utilisé au cinéma par exemple.

Le « i » signifie que l’image est entrelacée (interleaved) et ce système est issu des vieux systèmes TV à 50 ou 60 images par sec. (mais on le trouve encore sur des DVD).
Par exemple, pour un film DVD PAL en 576i à 50ips, on affiche d’abord une image qui contient les lignes paires (donc une image 2 fois moins haute soit : 288 lignes) puis une seconde image contenant les lignes impaires (pareil, 2 fois moins haute soit : 288 lignes). L’image suivante est à nouveau avec uniquement les lignes paires et ainsi de suite. Quand on regarde le résultat final, on a la somme en hauteur des 2 « frames » paires et impaires soit du « 576i » à 50ips. Pareil pour le NTSC (norme TV américaine) mais en 720x480 à 60ips. Ces systèmes ont été conçus à l’origine pour « économiser » de la bande passante hertzienne et c’est devenu caduque depuis les systèmes HD, FHD et 4K.

Je sais tout ça! Et tu me reproches ce que tu fais.
Une image fixe peut très bien être ‹ i › même si ça n’a aucun sens (pas d’économie de bande passante ou de taille puisque qu’il faut 2 trames pour la reconstiruer). Donc on est bien en ‹ p › techniquement même si ça n’a pas vraiment de sens.
Pour les définitions, oui je mélange les deux parce que ce juste des normes parlant de définitions. De plus les normes de sortie vidéo et les définitions standard sont liés.
Mais absolument rien n’empêche d’avoir des définitions totalement en dehors de ces standards! Si ça te chante du peux faire des vidéos en 1000x500 ou des photos en 1523x1523… :stuck_out_tongue:
Bref, je remarquais surtout que l’abus de langage a quand même du sens. parler de photos en ‹ 240p › fait référence à l’habitude en vidéo de parler en définition verticale et le ‹ p › est techniquement valide sur une photo. Bref, tout le monde comprend et c’est le principal. :slight_smile: