Les premiers processeurs MMX sont sortis en janvier 1997.
Par contre, ce n’est pas pour autant que la course à la puissance brute (qu’est-ce que tu sous entends par là d’ailleurs ?) a été abandonné.
Et cette « intelligence » est générée par quoi, sinon de la puissance de calcul ?
Personnellement, je ne serais pas aussi tranché, il faut se rappeler que « l’IA » est à la mode et que Nvidia est aussi partie prenante dans ce marché, donc forcément il surfent dessus aussi.
Et d’ailleurs, quand ils parlent de génération d’image, la génération en question est bien calculée par le GPU, ça ne tombe pas magiquement du ciel.
Si tu savais lire entre les lignes ou que tu te renseignes un peu mieux tu verras que ce n’est pas du marketing…
C’est logique que tu puisses activer le DLSS 4 sur toute les RTX et NVIDIA ne l’a jamais démenti d’ailleurs mais ce n’est pas ça la question. Comme beaucoup d’évolution de technologie pré existante, ce n’est pas une question de compatibilité mais de performances : avec une RTX 20 ou 30 la latence sera énorme et la qualité d’image bien moins bonne car les tensor core n’ont pas la même puissance de calcul.
Ton commentaire est un peu naïf sachant que même le ray tracing peut être lancé sur une GTX en théorie mais il est simplement beaucoup mieux gérer par les RTX grâce à des unités de traitement spécialisé.
Si tu veux une comparaison c’est comme si tu venais de dire : l’équipe de France c’est que du marketing parce que moi aussi j’ai déjà gagné des compétitions de foot
Il n’a pas entièrement tort non plus.
Oui le Fram generation n’est pas magique mais il est gérer par les tensor core qui sont conçu pour être plus efficace dans les tâches IA et non les Cuda core qui sont conçu pour la puissance de calcul brute.
Les deux n’ont pas les mêmes types de tâches.
C’est le principe du DLSS : les Cuda core calcul une image en résolution moyenne et les tensor core s’occupe de l’upscaling, conséquences l’image est presque aussi bonne qu’avec une résolution élevée mais avec un taux ips bien meilleur.
Sans le traitement IA, la puissance totale n’est pas exploiter car les tensor core ne sont pas utilisés.
Depuis 30 ans que je joue sur pc, je pense en avoir appris assez sur les méthodes de Nvidia.
Mais je ne t’en veux pas d’estimer que je devrais mieux me renseigner alors que tu ignores tout de moi et n’a pas la moindre idée de mes connaissances.
J’adore les personnes qui pensent que âge=connaissance…
Analysons ton commentaire :
Tu as 30 ans d’expérience dans les jeux PC mais 30 ans d’expérience ça ne veut pas dire grand chose. Certains joueurs avec 30 ans d’expérience ne connaissent même pas la marque de leur processeur… (C’est un exemple)
Tu dis que je ne te connais pas et c’est vrai tout comme toi d’ailleurs, je me base simplement sur ce que tu dis, comme tout le monde. Et la seule chose que je vois c’est que j’ai rédigée un commentaire argumenté pour démontrer que tu avais tort et toi tu as répondu avec comme seul argument : j’ai 30 ans d’expérience et tu ne me connais pas.
De plus, tu parles des « méthodes » de NVIDIA mais l’entreprise comme toutes entreprises a eu plusieurs politiques de communication, et même si tu connais tout l’historique de NVIDIA ça ne veut pas dire que tu comprennes les technologies employées.
Enfin, si tu t’y connais mieux que moi alors tu peux contredire mes arguments mais tu as préféré esquiver ce qui indique plutôt que tu n’as pas d’argument valable.
Conclusion :
Ce n’est qu’une analyse simpliste et ça ne prouve rien mais cela montre que je ne te connais pas et que tu n’as pas prouvé que j’avais tort…
Si j’ai tort tu peux me le dire. Je suis ouvert à la discussion mais pas aux remarques futiles.