Commentaires : DLDSR : NVIDIA officialise sa « super résolution » assistée par l'intelligence artificielle

C’est sûr. Mais en ce qui concerne l’IA, elle réduit considérablement la charge de travail dans le domaine dans lequel elle est appliquée. Ce n’est pas qu’un argument de marketing mais un fait, il n’y a qu’à voir le gain apporté par les réseaux de neurones convolutifs du dlss pour en avoir un exemple flagrant (et c’est la même dans tout les domaines où est implémenté l’IA). Bref, ce sujet peut être intéressant ci il est amené de façon intelligente et non comme il a été abordé, et surtout en ayant pas fait l’effort de voir que le dldsr ne consommait presque pas de ressources contrairement aux algorithmes « optimisé ». Bonne journée

2 « J'aime »

Mais je suis d’accord avec toi. L’idée c’est qu’on peut/doit pouvoir débattre du sujet de l’efficacité énergétique, de l’intérêt, et de l’impact en commentaire d’une nouvelle techno (et oui de manière objective et raisonnée) si ce n’est dans l’article même.
Je suis technophile (ingénieur), et consommateur, et je suis convaincu que c’est un aspect important dans la prise en compte d’un nouveau produit.
Le commentaire en question n’amène peut être pas la question de façon intelligente comme tu dis mais il n’est pas hors sujet. je suis par contre beaucoup plus dubitatif sur la question politique dont se justifie le modérateur.

Le sujet de l’IA est un sujet vaste et intéressant, possédant des qualités et défauts propres (je travail actuellement dessus). (J’ai commencé à écrire un roman, mais je ne pense pas que l’espace commentaire soit l’endroit approprié pour cela, par contre je garde ton raisonnement de côté car il mérite d’être mis en avant, et des que je commencerais la réalisation de vidéo sur mon travail, je lancerais le sujet à ce moment) bonne journée

1 « J'aime »

Le coût en performance est très faible ici (2 fps perdues sur une base de 145). Au contraire ça semble être un très bon remplacement de techniques plus lourdes.

1 « J'aime »

Perso j’utilise le DSR sur les anciens jeux, j’en suis très content et si on peut encore améliorer les performances grâce à l’IA alors c’est que du bonus et si vous n’utilisez pas le DSR, ça changera rien pour vous.

Sur les vieux jeux, même avec le DSR on est facile a +100 fps mais sur les jeux plus récents, le DSR était pas du tout rentable vu son impact sur les perf. L’IA nous permettra de l’utiliser sur des jeux plus récents sans faire chuter les fps de moitié comme avant.

Après ça sera pas aussi utile que le DLSS qui permet plus de perf sur les derniers gros jeux gourmands (notamment en RT), ici sur les anciens jeux on a déjà bien plus de puissance que nécessaire, à la limite ça pourrait permettre une consommation réduite si on cap les fps.

2 « J'aime »

Je vois pas pourquoi ça parle autant de la consommation…
Entre avec et sans cette nouvelle technologie, le rapport consommation/rendu est diminué, ça demandera moins de calcul pour un rendu visuel équivalent. Donc soit le joueur consomme pareil mais gagne en perf, soit il cap les fps pour avoir les même qu’avec la techno disable et dans ce cas il consomme moins de courant.
Cette technologie n’est pas néfaste pour la planète, c’est même potentiellement le contraire.

Et quand bien même… Vous croyez pas qu’il existe d’autres domaines/secteurs/activités humaines dont l’impact sur l’environnement est sans commune mesure avec tout ça sérieusement ?

2 « J'aime »

J’ai lu les tout les commentaires. Et honnêtement au moins la moitié ne parle pas du sujet. Mais de la consommation électrique. Je crois que je me suis trompé d’article.

1 « J'aime »

La moitié nous bassine avec la consommation électrique alors que cette même moitié vendrait un rein pour acheter une Tesla …
On nous emmerde avec la conso électrique d’une CG alors que paradoxalement, ce sont les mêmes qui ne se demandent pas comment on recharge une voiture électrique ni combien ça en consomme …

1 « J'aime »

les iluminations ont couté combien ? pourtant il a bien fallu des ordinateurs pour gerer celle de la tour eiffel aussi j’avoue que nous sommes de gros consommateurs d’electricité mais c’est mieux que le charbon ou le bois ou le fioul ou… et pour en revenir au sujet, l’ordinateur maison vas bientot être 100% IA donc autant voir et lire son évolution même si on s’y perds dans les termes d’une meilleure et best seller de la résolution, mais, bientôt, aprés la 8k vidéo on passerra à 12 ou 16k puis 24 à 48k et il faudra de grosse carte graphique de gros processeur et de gros disque nvme, mais par delà, j’ai analysé les performances demandé sur certain site de youtubeur qui ont la chance de tester le matériel, si on mets de gros modules graphique le processeur est amoindrie mais pas la memoire, quand au Température de ces modéles il faudra de gros boitier avec du AIO revolutionnaire. soit on progresse vers une machine intelligente mais à quel prix (tarif).

Moi je n’ai rien contre l’amélioration des perfs et l’utilisation de l’IA. Y a juste, que le matériel, pourtant vendu par celui qui fait ces optimisations, est quasi introuvable, à prix MSRP. Donc, pour moi, c’est du vent.

Le marketing n’a que très peu d’effet sur moi.
Depuis le temps et en ces temps qui courent, je suis pour ainsi dire « vacciné » des chiffres trompeurs sortis de tout contexte qui ne veulent plus rien dire, et des comparaisons en tout sens des choux avec des carottes.
La capture dans le lien ne prouve rien si ce n’est qu’ils sont amusés à tout rendre trompeur en ajoutant un filtre de contraste.

1 « J'aime »

C’est facile de dire toujours que c’est les autres, on évite comme ça de se poser les bonnes question, à continuer à faire les mêmes erreurs pour seulement faire plaisir à une petite minorité d’égocentrique pour quelques FPS.

Alors que le 8K a été présenté en 2005, j’attends encore une connectique DP ou HDMI qui permette 8K @ 120Hz @ 10bpc, aussi bien côté écran que côté carte graphique (ou carte mère si circuits graphiques intégrés dans le processeur). Comme les standards DP ou HDMI ont des provisions facultatives, il faut aussi s’assurer avant d’acheter que les câbles tiennent la route, à moins que par magie on passe de l’argent ou du cuivre à la fibre optique (comme Silicon Graphics au siècle dernier).
Pour les images fixes, la majorité des capteurs sont Bayer, à savoir que chaque pixel est soit rouge, soit vert, soit bleu à l’origine, et des algorithmes complexes dans l’appareil photo font un calcul des pixels voisins pour essayer de reconstituer l’image (hélàs cet « effet Nutella » n’a pas encore été résolu). Pour les capteurs « Foveon » où les sous-pixels étaient superposés, Sigma a finalement abandonné après les séries DP en 2013, et ce n’était pas optimal en basse luminosité, donc il faudra attendre un miracle en silicone sur safir ou autre pour espérer des images fixes de qualité. Certes la vidéo grâce à la mobilité n’est pas tellement affectée, moyennant quoi je me demande vraiment ce que l’IA va améliorer.
Je note que Nvidia se lançait l’année dernière dans les cartes de minages de cryptomonnaies genre nvidia cmp 170HX à 5000$ (voir EcGkF9SBuSo sur youtube) et je me demande si Nvidia devra un jour recruter Greta Thunberg quand l’effort de minage BTC ou autres calculs complexes des présences tmprss2/ace2/ cathepsine des nouveaux Coronavirus si le Khazakstan finit par décupler le prix de l’uranium… Une réalité de moins en moins virtuelle !

Encore un truc qui ne sera pas disponible avec l’optimus des PC portable…