La dernière carte graphique de la génération Ada Lovelace commence à sortir les griffes : profonde entaille ou simple éraflure ?
ne pas oublier que la 4060 a un bus memoire 128 bits contre 256 pour la 3060ti. la 3060ti est plus performante que la 4060 sous Yuzu, emulateur switch.
Bizarre, l’intégralité des documents à l’air de souligné que les tests ont été mené en DLSS+RT exclusivement. Le Frame Generation concerne le DLSS dans sa version 3.0.
Autrement dit, aucun test montré concerne la rasterization uniquement.
Nota : Il faudrait le faire apparaitre clairement et explicitement dans l’article.
La RTX 4060 est ici comparée à la seule RTX 3060 avec un TDP de 110 watts contre 170 pour l’ancienne génération.
Normal, elle est équivalente à une « RTX 4040 Ti » ou « RTX 4050 » : C’est la remplaçante de la RTX 3050 (2560 coeurs | 130 W) qui bénéficie du 5nm avec 65% de fréquence supplémentaire.
« Nvidia affirme » blablabla, les tests parleront. Et 20% de gain d’une génération sur l’autre c’est le plus petit gain depuis bien longtemps (une bonne dizaine d’année facile ?). Nvidia nous a peu être mal habitué.
Pareil pour Intel avant la sortie des Ryzen : Prix en hausse à chaque génération, proportionnellement avec la montée en puissance.
En gros : nous on gagne, toi tu paye
- un effet Covid qui a bien arrangé.
Il n’y a plus de concurrence réelle sur le segment. On voit le résultat
T’inquiète, nous aurons les tests pour bien mettre ça en valeur et voir l’ensemble du tableau.
De plus, je signale que NVIDIA mentionne « en tout petit » que c’est réalisé en RT. Sous-entendu, il faut lire les petites lignes ici aussi Cela dit, c’est vrai qu’il reste possible d’insister encore un peu plus.
La carte consomme beaucoup moins, à conso équivalente les perfs auraient pas été les mêmes.
Sur ce segment les gens préfère la conso ou la puissance ?
J’espère que c’est le 1er. Le prob est la quantité de mémoire, c’est comme si ils avaient proposé que la 1060 3gb à l’époque.
Oui exact ! Pendant de (très) longues années avec Intel il fallait se contenter de +5% par génération. Les évolutions et l’innovation étaient bridées. L’avantage c’était l’argent économisé ! Mon légendaire i5 2500k (qui s’overclockait de 1Ghz et plus en 2 clics) est resté au top pendant très longtemps (bah jusqu’à Ryzen en fait).
Bon là avec les CG +5% ce serait difficile à justifier. Et quasi imperceptible en termes de FPS…
y a 3-4 jours ICI on lisait 18% et maintenant c’est 20%, dans 3 jours on dira 23% ?
Après, ça dépend sur quels tests. Mais elle sera grosso modo de 15~20% plus perf en rasterization (hors 4K et définition supérieur).
C’est de l’humour ?
Là, il est question de premières fuites n’ayant officiellement rien à voir avec NVIDIA.
Là, il s’agit de fuites de documents internes à NVIDIA.
Les sources sont différentes et les logiciels utilisés aussi : il paraît donc normal que les résultats ne soient pas identiques ?!
Bon, à mon avis, 20%, ça va dépendre des jeux, déjà. Ensuite, rien dans le tableau n’indique si l’on se réfère au modèle 12Go ou 8Go de la RTX 3060 pour faire ce calcul. J’espère que les tests corrigerons cet « oubli ».
Ça restera une bonne carte d’entrée de gamme, sans doute, notamment grâce à l’efficacité énergétique et au DLSS3.0, pour ceux que ça intéresse. Mais pour que Nvidia soit allée la comparer aux trois générations précédentes, c’est peut être qu’ils n’étaient pas tellement sûr que la comparaison avec la RTX 3060 soit si avantageuse que cela.
Ou au cuda-coude.
…