Commentaires : Facétieuse, AMD confirme que les Radeon RX 7000 se passeront du port 16 broches 12VHPWR

C’est un coup à finir sur Twitter en mode mitou :o

1 « J'aime »

Mais là on parle implicitement des personnes qui y travaillent, je rejoins donc Nerces dans l’emploi du féminin qui sous-entend compagnie/entreprise/société. ^^

Ce que tu dis marchera pas. Le problème de ces câbles déjà c’est que si l’alimentation ne gère pas correctement bah il peut y avoir plus de 300w dans un seul des connecteurs donc il surchauffe et prend feu. Autrement dit il faut a la fois le câble et une alimentation certifiée pour utiliser cette norme et même ainsi t’es pas sur que ça va tenir correctement, c’est une nouvelle façon de faire donc les premiers essuie les pots cassés. Sinon l’adaptateur faut rappeler qu’il est fourni avec des GPU qui coûte plus de 2000€ donc franchement si les fabricants ont mis des adaptateurs de merde pour économiser 2€ bah qu’il vire les mecs du marketing qui ont eu cette idée parce que va y en avoir plein des GPU a rembourser pour cause d’incendie. Et peut être même indemnisé les gens. NVIDIA devrait sérieusement se prendre une amande de l’espace pour avoir commercialisé cette merde. Et je parle en milliards € d’amande. Sinon bon faut voir la suite mais je trouve que c’est une véritable honte. Manquerai plus que les constructeurs automobiles s’amuse à commercialiser des voitures en Europe sans avoir passé les crash test etc… Pour être au norme.

Là c’est sur y avait peut être pas de norme pour ces connecteurs mais tout le monde le disais que ça risquait de poser problème. Et même sans être ingénieur ça a été highlight par tout les youtubeur tech et la press en ligne. Au final ça pose problème, soit les ingénieurs NVIDIA n’ont pas fait leur travail, soit les marketing ont voulu trop serrés sur la corde pour économiser 2€. Et vu les prix actuel des GPU franchement ils avaient pas besoin d’économiser sur un connecteur pourrie. Donc franchement il mérite de devoir indemnisé les consommateurs.

En le voyant de mes yeux j’avais halluciné, plus petit qu’un 8 pin et 4 fois plus de jus qui passe au travers… après tu peux imaginer que quelque avancées technique entre temps auraient permis de faire passer des courant pareil dans ce genre de section, mais visiblement ça part mal. Hormis cela ce que je note c’est quand même que ce câble est détestable a manipuler, je parlait de rigidité, c’est pas agréable du tout, et on commence à comprendre les constructeurs qui avait mit leur certification pour 30 connexion/déconnexion, on est clairement sur un downgrade ne serait-ce qu’en terme de feeling, et pour un gain inexistant, que ce soit en terme visuel ou pratique (merci l’adaptateur). Après pour l’idée de débranché un câble je pense qu’a minima ça doit diminuer la probabilité qu’un des connecteurs foire en en branchant moins mais difficile à confirmer quand on ne connaît pas la répartition qui se fait et, visiblement, même les ingé qui on conçu cette chose ne savent vraiment comment ça se passe à ce niveau

1 « J'aime »

je prendrai bien entendu celui qui proposera la plus grosse ?

Pour compléter ton message, je dirais qu’à chaque fois qu’on a besoin de mettre le nez dans la tour … il faut sortir la CG pour avoir l’accès. Du coup, déconnexion/reconnexion des câbles est quelque chose qui sera effectué un nombre de fois très supérieur à 1.
D’un point de vue mécanique, le support du processeur est largement mieux pensé (alors que c’est manipulé 1 à 2 fois grand max) que ce connecteur qui fleure bon les mauvaises économies.

1 « J'aime »

Je suis pas sûr qu’il fasse des économie sur ce port, au contraire.
L’idée était sans doute de permettre de faire des carte graphique qui consomme d’avantage, remplacer quatre 8 pins par un 12 pins permet d’envisager des CG avec plusieurs 12 pins et des conso de 1200, 1800W voir 2400W. Un levier que nvidia aurait pu actionner si par hasard la concurrence faisait des cartes plus efficiente, les verts ont l’air obsédés par l’idée d’avoir la CG la plus puissante, quitte a ce qu’elle consomme bien plus que la concurrence.
D’ailleurs on le voit avec les 4090, les conso sont exagérés la carte à plus de 90% de ses perfs pour 70% de la conso, oui on aurait pu avoir des 4090 avec tdp de 350 voir 320W mais Nvidia voulait être certain de garder la couronne (ce qui n’est même pas sûr d’ailleurs)

Ben vala, tu confirmes au travers de cette pensée que nVidia ne sait faire que dans le muscle car … bien pour des drag-race mais nul pour aller chercher l’pain.

A priori, c’est bien là le problème. Souci sur l’adaptateur livré avec les Founders. Sans compter aussi les « geeks du dimanche » qui lisent pas les recommandations.
A ce jours, 9 problèmes recensés. Houaaa. Effectivement, c’est un gros problème.

Certains se rappelleront des 8800 GT dont la durée de vie dépassait rarement 1 an. Il n’y a donc rien d’impossible à ce que les problèmes ne fassent que débuter. neutre