@TofVW pour 384€ tu peux actuellement avoir une Gigabyte RX6700XT sur rue du commerce, perso a choisir je prendrais la RX
Bah suffit juste de lire les benchmark…
Sur Anandtech:
un Ryzen 5 7600X c’est 134 watts en power peak, un Ryzen 7 5800 X3D c’est 141 watts alors qu’un i5-13600K c’est 238 watts.
Sur guru3d:
Un Ryzen 5 7600X c’est 183 watts en power load, un Ryzen 7800 X3D c’est 179 watts et un i5 13600K c’est 255 watts
Donc non c’est toi qui fait plutôt le fanboy, après ça n’enlève rien aux qualités des CPU Intel mais venir dire qu’ils ne consomment pas face à AMD c’est mentir, tous les gros sites du secteur donnent l’inverse dans les benchs
Je parle de l’ère moderne pour particulier. Pas pour data center, pas de CPU sur PCIe (Xeon Phi). Le DG1, je l’avais oublié, comme presque tout le monde vu les perfs ridicules, normal, c’est grossièrement un iGPU avec VRAM.
Tu divague l’ami, tes chiffres c’est du n’importe quoi !!! sans parler des sites tech qui sont devenus comme des prostituées prêt a faire n’importe quoi pour du pognon, tu est malheureusement bien endoctriné par la propagande ambiante, y’en a plein comme toi qui gobent ce bla bla, tient un ptit exemple pioché à la vas vite que t’a tout faut (et regarde bien les chiffres), un conseil, fait tes tests toi meme, sinon ne parle pas de ce que tu ne sait pas !!
C’est vrai qu’une vidéo sur Youtube est beaucoup plus crédible que les sites réputés de longue date pour les tests de matériel.
(pour mon Intel i7 par exemple )
Il dit que c’est énorme quand ça vient d’un fix des drivers.
Et toi, tu as fait les tests toi-même ? C’est toi qui a fait les tests dans la vidéo ?
Bien sûr, tous les sites pourtant réputés sont des vendus, mais un gars sur youtube dit le contraire donc c’est forcément lui qui a raison. C’est comme si un gars disait que pour soigner le COVID il fallait, je sais pas, de l’hydroxychloroquine et que les millions de médecins dans le monde sont tous des vendus mais un seul dit la vérité.
Faut arrêter de manger du complot à tous les repas…
Si on peut avoir plus de choix, et plus de concurrence, c’est tout bon. La concurrence aide à baisser les prix et améliorer les produits.
Il y a 10% max d’écart avec la RTX 3060 en terme de prix, donc jusqu’à l’arrivée de ces drivers, les ARC n’étaient pas si concurrentielles que ça au vu des résultats réels.
Les nouveaux drivers semblent redonner de l’intérêt aux GPU intel, néanmoins pour l’heure aucun quotidien spécialisé n’a pas pris la peine de vérifier les dires d’Intel.
Hors quand on annonce de tels gains, les canards sérieux se devraient vérifier ça… d’autant que le passé à montré que les annonces d’intel sont très largement exagérées en ce qui concerne ses GPU.
Je ne dis pas que c’est mal, je dis juste qu’il n’y a pas de quoi sauter au plafond. Mais je dis la même chose quand AMD/NVidia font ce genre d’annonce sans intérêt en essayant de dire que c’est un gros évènement.
Je trouve ces cartes intel très intéressantes. Et j’imagine que comme d’hab avec intel, le pilote est opensource day-1
En jeu, oui. Mais même pour faire de la CAO/PAO, les intel sont très utilisés.
Ils font le taf, permettent de jouer à pas mal de jeux, sont inclus dans le CPU et du coup ne coûtent pas 400€ + l’alim à revoir + le boitier pour avoir une config.
Et les iGPU intel (sur le haut de gamme) ont dépassé pendant un moment les iGPU AMD (avant RDNA).
Je joue sur iGPU AMD, du Ryzen 2000 au Ryzen 5000 il n’y a eu AUCUNE évolution sur les iGPU - ils ont juste joué sur le nombre de coeurs iGPU et compté sur l’augmentation de fréquence mémoire pour rester sur un statu quo.
Intel a une avance sur la conso à vide/en utilisation légère, c’est un fait - surtout si on compare à un Ryzen 16C…
La vidéo ne montre pas la supériorité de l’un par rapport à l’autre, mais plutôt l’absurdité de prendre un 7950X et le laisser sur sa conso par défaut quand on ne peut pas l’alimenter en travail sur ses coeurs. Car c’est quand il est chargé qu’il prend le dessus sur Intel.
C’est sûr qu’à faible charge, c’est un peu comme faire une balade dans le parc en V12…
Il suffit de faire comprendre aux gens qu’il leur faut une machine en rapport avec les logiciels qu’ils utilisent - 16 coeurs, c’est très spécifique: il faut pouvoir alimenter en données et là même un SSD peut être un goulet d’étranglement.
Elle va ptet bientôt commencer à atteindre les perfs de la 3070 qu’elle est censée égaler vu ce qu’elle a dans le ventre
Chez AMD non plus.
Les iGPU Vega était déjà devant.
Il n’y avait pas besoin. Intel n’a pas vraiment fait mieux a ce niveau.
Selon Intel l’A750 (230chf) serait proche de la 3060 (310chf en Suisse). Ça parait trop beau pour être vrai, vivement les tests pour vérifier, en effet.
Si elle arrive ne serait-ce qu’à 80% des performances, pour 75% du prix, ce sera déjà un rapport perf/prix très intéressant.
Oui c’est bien résumé ;).
Exactement, plus il y a d’acteurs et plus c’est bénéfique pour les consommateurs. C’est pourquoi je ne comprends pas ceux qui se réjouissent quand une firme est en difficulté à l’un ou l’autre moment, il ne serait absolument dans notre intérêt qu’elle disparaisse et que sa concurrente ait ainsi un monopole.
Les Intel xe ont dépassé les Vega, parfois de 50%.
Par contre, c’est surtout le cas si ils sont en lpddr double canal…
Pas de besoin… Surtout pas de marché et pas envie de couper le marché: quand on voit la rx6400 d’entrée de gamme, a peine plus puissante que des cartes de 5 ans d’âge vendues au même prix 4 ans avant, tout cela pour la même conso, ça n’incite pas à changer