Commentaires : Intel : les processeurs de bureau 10 nm Alder Lake arriveraient cette année

Un 3700x c’est 88 watts en pleine charge, un 9900k c’est 167 watts en pleine charge, donc il y a le double à dissiper chez Intel et ce serait AMD qui chauffe plus ?

Et je reviens sur ton com du début sur le 3900x, sauf que le consommateur averti remarquera que sous Ashes comme tu le fais si bien remarquer, les performances sont exactement les même (à 3/4 fps) tant sur le 1080p que la 4k pour un 3700x, donc tu prends le modèle qui t’arrange pour que ça aille dans ton sens…
C’est relou les fanboy qui ne peuvent accepter qu’AMD fait aussi bien avec une conso largement moindre.

Et je ne parle même pas du prix, ça serait enfoncer le couteau dans la plaie !

2 « J'aime »

Merci ça fait plaisir de voir de la modération la dessus ^^

Dans ta vidéo de gaming en plus de ne voir aucune différence de fps entre Le pci express 3.0 et 4.0 si ce n’est 1 ou 2 fps.La plupart du temps,la configuration en PCI express 4.0 a son CPU ryzen 3700X overclocker de 50-75 mhz et pareillement pour la RX 5700XT qui a sa fréquence Turbo augmenté de quelques dizaines de mhz. :face_with_monocle: Et même avec ça,les résultats sont identique :frowning_face:
Donc très mauvais exemple que cette vidéo pour démonter les bienfaits du PCI 4.0.
Une vidéo de Benchmark sur les transferts et débits de SSD m2 nvme en PCI 3.0 vs PCI 4.0 aurait été plus judicieuse et les résultats auraient été significatifs et bien différent dans une configuration à plusieurs SSD Nvme.

Un 3700x est à 88 watts ? sous quel logiciel ?
Non! un Ryzen 3700X@stock sous prime 95 FFTS,c’est environ 130 watts de consommation pour 4.0 ghz seulement
Un I9 9900K@5.0ghz ! @1.23v sur les 8 cores,sur prime 95 ffts avx,on est en début du test à 150 watts avec des pics à 200 watts. mais pour 1 Ghz de plus !


Sur ce I9 9900K@5Ghz,le gars ne dépasse même pas les 80 degrés.

Un 3700X @5 Ghz (Si cela été possible ) devrait-être plus ou moins au même niveau de consommation malgré sa finesse de gravure à 7 nm.Voir peut-être beaucoup plus en consommation et dépasser les 200 watts sous prime 95 FFTs avec 1 ghz en plus

On est ici à 125 watts pour seulement 4.0 ghz mais avec des pic de température de 95 degrés !

Comme quoi le processus de gravure des Ryzen,est encore à peaufiner pour dépasser les 4.0 ghz.
Un i9 9900K en 10nm voir 7 nm,je serai bien tenté !

Mais les Prochains Ryzen 4000-5000 avec du 7nm amélioré qui pourront monter en boost peut-être à 5 Ghz,je prend de suite !

Edit:En même temps,Prime 95 FFTS avx est le test qui sollicite le plus vos composants et pas vraiment représentatif de l’utilisation que vous en faites,pas seulement la température du CPU mais l’ensemble de votre PC,L’étage d’alimentation ou Vrm de la carte mère est fortement sollicité ! L’alimentation ou PSU pareillement doit tenir le coup pour passer ce test.
Si vous avez confiance en votre matos,allez-y ! mais si vous avez une carte mère avec 4 Vrms de 40 Ampères à chipset B450,il y a un gros risque de cramer l’étage d’alimentation.
Le mieux étant un Prime 95 «normal»,Un ffts pas plus de 10 minutes,un OCCT de base voir mieux un Asus Real Bench,un Cinebench et autre Blender…Pour valider la stabilité de votre PC.

1 « J'aime »

Apparemment j’ai posté le mauvais lien. J’avais une ou l’on voyait la différence (genre +10fps) mais sa devait être du full HD. Donc moins intéressant.

Pour rester dans le gaming, tu peux voir que la
Futur ps5 a fait le choix d augmenter les débit entre ssd et cpu. Bcq de développeurs semblent satisfaits et comptent exploiter ce débit pour éliminer les temps de changement.

Sur PC,depuis que je suis ne serait-ce que sur des SSDs Sata 600, les chargements sont quasiment imperceptible ! Et si vous installez vos jeux PC sur des SSDs m2 Nvme,les chargements ont disparu ou presque ( pour les pointilleux :face_with_monocle: ).

Les SSDs sur PS5 ne vont pas augmenter les Fps mais permettront d’éviter les Freeze,les micro-saccades.Les jeux seront plus fluide.Ils pourront alimenter plus rapidement en texture le GPU par exemple et faire office de mémoire centrale secondaire du fait de leurs débits élevés 8 à 9 Go/s (selon les dires ) contrairement à un HDD de PS3,PS4 avec ses 100-150 mo/sec :weary:

Quoiqu’il en soit, si vous disposez d’au moins un CPU 6 Cores/12Threads comme un Ryzen 3600x ou un I7 8700K et avec la prochaine génération de carte graphique Nvidia et AMD comme les Nouvelles RTX 3000 series et les GPU AMD RX 5800XT,5900xt…accompagné de bon SSD nVME,les performances seront supérieures aux futures consoles. (avec au moins une RTX 3070 )
espérons que la concurrence AMD sera là sur les Prochains GPUs pour baisser les prix que pratiquent Nvidia.

1500 EUROS VOIR PLUS LA RTX 2080 TI alors qu’une GTX 1080 TI ne dépassait pas les 750 euros à sa sortie.

Edit:selon DICE, le future Batleflied 5 sera programmé et optimisé pour un CPU avec un Minimum de 6 cores et 12 threads. Ils disent cependant que les anciens Intel I7 4C/8Threads fonctionneront relativement bien, si ils sont «clockés» très haut en fréquence.

1 « J'aime »

J’ai un ssd nvme PCI 4 de chez corsair. En benchmark il montre 5025mo/s. Les debit sont excellents et en applicatif aussi, c’est bcq plus transparent en charge. Par exemple, une sauvegarde complet du système pendant une partie est totalement transparente. Par contre en gaming il faudra qu’il optimise leur code. Parceque tu gagnes casi rien.

Édit: Justement je penses pas que sa soit seulement une question de threads. Battlefield 5 sur ssd nvme de pc reste long à charger.

Le ssd de la ps5 sera aussi rapide que la ddr3. Mais sa sera aux développeurs de choisir la répartition des données entre ram et ssd. Sans bottleneck plus besoin de tout charger en ram. Si on a ce genre d optimisation sur pc. Sa serait top.

Personnellement,je n’ai qu’un SSD Nvme 500 go Samsung 970 evo sur lequel,j’ai installé le système d’exploitation.
Pour le Gaming ? Mes Jeux sont installés sur des SSDs Samsung 860 Evo 1TO (Sata) et un 500 go 850 evo (Sata) avec le rapid mode actif.
Les chargements sont présent mais pas omniprésent et cela ne nuit en rien à l’expérience du Jeux,aucun Freeze,aucune saccade.
C’est le jour et la nuit avec un HDD classique !

Si il y avait un Disque dur mécanique à conseiller pour le Gaming,ce serait les SSHD de Seagate , Les Firecuda qui dispose de 8 GO de mémoire Nand MLC. Quand les textures et autres données du jeux sont chargés dans le cache de 8 go,les chargements sont imperceptibles au recommencement de niveau et les micro saccades,freeze,de même ne sont pas perceptible à moins d’être très pointilleux.
Mais dés que ce Disque Défailli,je le remplace pour un SSD. Le cache de 8 GO accélère certes les temps de chargement,les temps de réponses… mais ce n’est pas suffisant au regard des performances d’un SSD sata 600 et encore mieux d’un SSD Nvme.
Mais pour 110 euros les 2 TO,c’est une bonne affaire ! pour celui qui ne peut se permettre de mettre 550 euros dans un SSD nvme de 2 TO.

Le Top pour Un PC,serait 3 SSD Nvme de 1TO + 1 SSD 2 TO Sata (Minimum). La facture serait très salé mais les performances seraient au rendez-vous !

Attention,les Débits de la DDR3 même en 1600 mhz c’est 18 et 25 go/sec,on est vachement loin des débits annoncés en compression de la PS5 au max 9 Go/sec.
Tout système informatique passe par un chargement des données en mémoire vive.
Même dans la PS5,il y a différentes mémoires, les 16 go gddr6 + la Mémoire du SSD.
Pour que les Données soit lu directement par le CPU sans passage par différentes mémoires,il faudrait comme un Gigantesque Cache Mémoire ultra rapide tout en faisant office de support de stockage.Chose impossible actuellement ou extrêmement coûteuse.

Le bottleneck,cela signifie goulot d’étranglement.Le goulot d’étranglement est lorsqu’un composant limite la puissance d’un autre.
Dans le cas du BUS Pci express par exemple, si il n’ y avait qu’un débit de 1go/sec,il y aurait un goulot d’étranglement.Le GPU ne recevrait pas assez de données du CPU.
Pour le CPU,il y a goulot d’étranglement lorsque celui-ci ne débite pas assez de données,d’images à traiter pour le GPU. C’est ce que l’on nomme CPU Bottleneck.
Sur PC,si votre configuration est équilibrée,il n’ y a aura pas de goulot d’étranglement.
Ne pas mettre par exemple un i7 2600K avec une RTX 2080 TI,le GPU sera clairement sous alimenté.
Pour les futures consoles à priori, il n’ y aura PAS de goulot d’étranglement comme avec la PS4 ET XBOX ONE X qui était limité par leurs CPUs Jaguar vraiment peu puissant !
Ici à priori,les Cpus Ryzen «modifiés» des nouvelles Consoles ne vont plus limiter la partie GPU.

tu as parfaitement raison pour tout suite mais bientôt les nouvelles cartes de Nvidia vont sortir et c’est sûr que Nvidia va exploité le pci express 4.0 au maximum dans les futures drivers.
Là le pci express 4.0 n’est pas encore rendu une norme démocratisé dans le monde du pc.
Mais avec l’arriver de la nouvelle génération d’Intel et la démocratisation du pci express 4.0 les chose vont changer.
C’est quand même moins pire que l’histoire entre le PCI vs AGP vs.PCI Express lol. :wink:
Ce qui est le plus dommage c’est que rien vas sortir pas avant la toute fin de l’année 2019 et début 2020.

Surtout avec la situation actuelle dans monde.
tout est paralysé à cause de la maladie.

Et en plus pour en rajouter une couche les consoles seront de vrai machine de guerre et pourraient faire de l’ombre dans le monde du pc.
Donc il y a beaucoup de changement dans l’air.

La bande passante du PCI express 4.0 qui est de 32 go/sec contre 16 go/sec pour le 3.0 ne sert qu’au chargement des textures et des niveaux en Vram.

Là où le PCI express 4.0,pourrait apporter un gain dans les jeux -vidéo,c’est essentiellement pour les cartes graphiques disposant d’une faible quantité de mémoire vidéo.
Le manque de mémoire vidéo est puisé dans la mémoire vive via la connexion à 32 go/sec du PCI express 4.0.Ce qui augmente jusqu’à 40 % les fps sur certains jeux sur des cartes graphiques équipées de seulement 4 go.
Mais pour la même carte en 8 GO,l’effet du PCI express 4.0 est Nulle puisque sa mémoire vidéo est suffisamment grande.
Et pour les Prochaines Nvidia RTX 3000 série,elles seront toujours câblées en 3.0 x16 !

Pas vraiment d’intérêt qu’est le PCI Express 4.0 EN GAMING.Les futures chipsets Z490 pour les CPUs Intel Comet Lake seront toujours câblés également en 3.0.
Le surplus de Lignes PCI express est utile pour la bande passante des SSD M2 Nvme mais complètement inutile pour le gaming :frowning:
Et c’est vrai ! rien que pour la vitesse des ssds en PCI express,il serait temps qu’Intel passe au PCI EXPRESS 4.0 !

Enfin,pour les Consoles dans un premier temps,elles seront très puissante début 2021 mais vite rattrapé par l’évolution sans cesse des composants PC.
à partir de la Prochaine génération de GPU Nvidia ici sortant vers l’été (les RTX 3000), et les cpus Intel Comet Lake en I9 10900k 10C/20T @ 5.3 ghz et les I7 10700k 8C/16T @ 5.1 ghz ,les consoles auront déjà pris un coup de vieux !

Dans ta vidéo le PPT du 3700x est modifié, de 88 watts (soit la valeur par défaut) à 130 watts, forcément la consommation monte à 125 watts, tu t’attendais à quoi ?

Donc je ne vois pas où tu veux en venir, moi je te parle en restant sur les valeurs par défaut, le 3700x égale le 9900k en restant deux fois moins gourmand, je ne te parle pas d’OC ni quoi que ce soit du genre.

De tout façon pour moi les jeux se passe avec une télévision 4k en 60 hz.
Donc entre une 9400f ou 9900k cela fait pratiquement aucun différence pour moi.
Je suis limité par la puissance de la carte graphique.
Tout le monde sait que les processeurs d’AMD n’aime pas overclocking .
Mais la démocratisation du pci express 4.0 avec le perfectionnement des logiciels et des drivers les chose vont certainement évoluer.
Ce que je dis c’est que le pci express 4.0 est juste une corde de plus à son arc.

J’ai deux pc similaires, un intel atom d510, 1,7 ghz un quadcores avec 4 go de ram, et un acer avec aussi un quadcores AMD 4 go de ram, des vitesses similaires, ben l’intel atom rame parce que le pipeline est en ligne et réagit comme un dualcores les proc utilisés continuellement à 100%, sur l’acer sauf hasard ça se traine tous les 4 à 30% sans plus car le pipeline est not in line, chaque core est alimenté ensemble.
En gros amd en fait plus avec moins de moyens dans ce cas.
J’espère qu’intel a abandonné ce truc stupide sur les proc à 600€ et laissé tomber le pipeline en ligne.

Frigo a très bien résumé. Et il a raison .Dans le cadre du gaming le pci express 4 ne sert a rien. NVIDIA et AMD ont déjà doté leur carte graphique de mémoire ultra rapide en grande quantité. Pour l’instant il est utile que sur les gros postes de plusieurs ssd nvme. c’est une bonne chose, Intel dort un peu trop sur c acquis. Même si les gains sont mineurs malgré tout elles serviront. Manquerait plus qu’un leader (ex. Samsung) se décidé de faire un haut gamme compatible…
AMD n a pas le choix,
Avec la multiplication des coeurs dans leur techno. Il faudra bien nourrir les CPU. (Mobo bi CPU). Chez ps5 aussi ils veulent accélérer les debits. Ils font la chasse au temps de chargement.
Mais vu qu ils sont tout seul. C’est pas sûr que sa se démocratise. Comment sa serait kiff si les développeurs décident de charger les textures au fur et à mesure que tu te déplaces dans la map et non en one shot au début.

@frigo les données du ssd de la ps5 passeront forcément par la ram. Les 9go/s seront décompressés en ram mais a cette vitesse le PCI Express 3.0 x 4 ne passe pas.

Sous (Visual Studio 2019),le Ryzen 3700X avec ses 4 Ghz «seulement» (consommation à la prise en charge ) consomme 150 watts contre 147 watts pour le I9 9900K avec des pointes en turbo sur 2 cores à 5 ghz.
En consommation en charge (12V),donc en lecture logiciel moins précise le Ryzen 3700X donne 96 watts contre 106 watts pour l’I9 9900K.
Donc non,il est loin d’égaler l’I9 9900K ! et sa consommation est plus ou moins similaire pour un écart de fréquence de 1 ghz et malgré une finesse de gravure de 7 nm pour l’AMD.
à 5Ghz @1.30V,les Ryzen 3700x explosent le compteur en watt !

Et cette vidéo linké ci-dessus était juste un test sous prime 95 FFTS d’un Ryzen 3700X à défaut donc à 4.0 ghz dont la consommation était de 125 watts.
La consommation est en rapport avec le voltage,la fréquence,L’architecture et la finesse de gravure.

Sur Handbrake X264,un logiciel de compression,non seulement le 3800X consomme plus que le I9 9900K 145 watts contre 195 watts pour le 3800x et qui plus est l’Efficacité énergétique sur ce logiciel bien précis est supérieur 127.2/watts pour le i9 9900K contre 105.1/watts pour le 3800X.

Depuis les Cpus intels Haswell,Intel utilise un Ring Bus qui est un bus de communication circulaire qui relie chaque core aux blocs de LLC le cache L3 (également appelé LLC, Last Level Cache).
Ce ring bus relie également la partie chipset (System Agent) et le GPU intégré.
Pour ton Intel Atom D510,ce n’est pas un 4 cores mais «seulement» un 2 cores /4Threads où les 2 cores sont reliés par les différents caches mémoires,sans architecture à «maillage» sans bus circulaire mais avec un simple bus en ligne.

Du coté de Amd ce n’est pas mieux niveau architecture et élégance,car pour un CPU 8 cores, ce sont des blocs de 4 cores (les ccx) collés aux 4 autres blocs de 4 cores par un unique bus ou pipeline en ligne (l’infinity fabric).
Et dans ces Blocs de 4 cores ,les 2 cores sont aussi collés aux 2 cores adjacent par LE CACHE L3 .
C’est ce qui rendait très lent les premiers Ryzen 1700X à cause des latences des caches mémoires très lentes.
La solution a été d’augmenter la latence de ses caches,la vitesse du bus infinity fabric,l’accès au contrôleur mémoire et pour avoir une rapidité dans les jeux mettre un gros cache mémoire démesuré (le game cache) 32 MO L3 sur les Ryzen 3700X.

à voir si à terme,cette architecture «si simple» en apparence pourra être encore optimisé au point d’obtenir + 25 % de performances par rapport au Ryzen 3000.
Le vrai défi pour AMD est la montée en fréquence de cette architecture,seul point où ils peuvent grappiller des performances.

Pour Intel,c’est leur Finesse de Gravure qui les Freine.

J’ai rien contre les comparaisons .
Mais pouvons nous comparer des processeurs de même valeur parce-que le 9900k vaut environ 33% plus cher que le 3700x .
Tout monde sait que le 9900k est le meilleur processeur pour les jeux sa fait aucun doute pour tout suite.
Mais même sur la 14 page du test du lien on peut voir que Metro Exodus et gta 5 sont nez à nez.
C’est très surjectif les test ; tout dépend des choix de la résolution et des jeux que l’on choisit .
Souvent pour des test de processeur on prend souvent le 1080p ou le 1440p mais pas jamais le 4k parce-que la différence est très subtile 1 à 2 fps maximum.
Aussi je constate qui a une évolution dans les performances des processeurs d’AMD avec des meilleurs drivers et l’optimisation des bios.
Je me souviens que les performances du ryzen 3600x était beaucoup moins performant à la sortie.

1 « J'aime »