Effectuer le travail à l’encodage est doublement bénéfique.
Tu ne fais l’upscale qu’une seule fois.
Et tu ne sais pas si les machines recevant un flux à up scaler en ont la puissance de la faire.
Je connais tout ça. J’ai une licence pour Topaz video AI. Ça fonctionne plutôt bien mais c’est très long.
Tout comme ESRGAN. Je l’ai utilisé pour agrandir des épisodes de manga des années 80-90.
Bon c’est super lent et le résultat est mitigé.
Dans le meilleur des cas, ça utilise Vulkan.
C’est mieux que rien mais ça reste du traitement image par image et non en temps réel comme Nvidia va le faire
C’est l’idée. Justement oui. Utiliser mon PC de compet pour upscaler à la vitesse de l’éclair et diffuser sur tous supports ensuite
Cette fonction va être super intéressante sur les vidéos YouTube en 1080p qui traite de la programmation et que l’on regarde sur un écran 4K car les écritures des vidéos sont légèrement flous sur un écran 4K 27". Ce qui n’est pas le cas avec des vidéos de programmation qui sont en 4K
1080p > 4k
C’est du DLSS appliqué aux vidéos, donc. Mais autant je peux comprendre l’intérêt d’upscaler une vidéo HD en 4K, autant j’ai l’impression que cette tech ne s’adresse pas au visionnage de film mais plutôt au streaming. Je me trompe ?
Testé sur une RTX 3080 et un écran UHD @ 60 Hz, je passe d’une consommation GPU de 20 watts, sans, à 290 watts, avec, quel que soit le niveau de qualité (1 à 4). Belle prouesse.