Après de longues semaines d’attente, les premiers PC portables équipés des GeForce RTX 5000 mobiles arrivent peu à peu sur le marché. Nous avons pu tester la RTX 5080 d’un modèle signé MSI. Voici notre avis sur cette nouvelle carte graphique nomade estampillée NVIDIA.
Merci pour le test @redacteur
" Sur l’intelligence artificielle, sous Geekbench AI, la RTX 5080 mobile tire enfin partie de ses 1334 TOPs pour devancer la RTX 4090 (686 TOPs) d’une courte avance. Elle glane en effet 28 467 points en single precision et 49 170 en half precision ; tandis que la RTX 4090 s’en tient à 28 126 points en single precision et 41 061 en half precision. Contre toute attente compte tenu de leurs spécifications respectives, les deux puces sont donc au coude à coude sur ce terrain."
Par contre je suis surpris qu’un doublement des TOPS AI ne se traduise que par un coude à coude, c’est un non-sens …
Soit Geekbench ne s’est pas mis à jour sur les améliorations d’architectures des 50XX, ou quelque chose du coté des pilotes est à l’oeuvre pas ouvert, pas exploité, appel de méthode différent etc …
Pour en être sûr un petit test comparatif des tokens/s sur ollama, ou un générateur d’image aurait pu (devrait ) valider l’amélioration.
Cela dit, ça reste une belle bête, que j’aimerai bien voir dans un format de PC type miniPC, à re-tester quand il y aura eu un peu de mises à jour.
C’est aussi l’effet du marketing nVidia
Les chiffres de TOPS communiqués par nVidia sont en FP8 pour les RTX 40, en FP4 pour les RTX 50. Donc pour avoir quelque chose de comparable, faut diviser les chiffres par deux sur les RTX 50 pour avoir les perfs en FP8. Et on se rend alors compte qu’effectivement une 5080 Mobile est à peu près au niveau d’une RTX 4090. D’où les résultats similaires dans les benchmarks FP8 ou plus.
Donc dans les cas où on peut effectivement se contenter de FP4, malgré la perte de précision (typiquement, pour la génération d’images, ça marche très bien en FP4, et d’ailleurs ça se fait déjà beaucoup en FP4 sur les RTX 40, pour des questions de consommation mémoire…), les RTX 5080 sont effectivement deux fois plus rapides que les RTX 4090, mais si on a besoin de plus de précision, ce n’est plus le cas.
Et dans les benchmarks, il est logique de les comparer avec le même niveau de précision, donc les 5080 et 4090 resteront proches dans les benchmarks en FP8 ou plus. Ça ne sera plus le cas quand les benchmarks intégreront aussi le FP4, mais par contre ça ne devrait logiquement quand même pas doubler les scores, car il serait préférable que les benchs fassent le FP4 en plus des autres précisions, pas en remplacement, donc seule une partie des tests seront deux fois plus rapide, et la note finale combinant tous les tests ne doublera pas.
je me reponds à moi même
alors il doit y avoir de l’opti pas encore totalement utilisée, néanmoins sur LMstudio on a des résultats proches, ce qui reste étrange vu le doublement des TOPS, il faudra attendre voir si ça évolue …
Par contre pour de la gen d 'image on a pour l instant une amélioration d’environ 30% entre les 2 références, cela pourrait évoluer aussi avec le temps.
il s agit des versions bureau, la différence devrait être équivalente sur les versions mobiles
Dommage pour le prix qu’il n’ait que 16GB de VRAM. Ils devraient en mettre plus pour l’IA
"La génération Blackwell et le DLSS 4 avec Multi Frame Generation rendent possible une expérience de jeu confortable avec ce réglage — quelque soit la définition choisie —, là où même les RTX 4000 mobiles les plus puissantes (comme la RTX 4090 175W testée ici) affichaient jusqu’à présent de grosses limites une fois cette option activée. "
Les 4000 n’ont pas ce réglage. La RTX 5080 mobile est donc moins puissante que la 4090 mobile, encore une douille d’Nvidia…
La RTX 5080 est moins puissante que la RTX 4090 c’est un fait et c’est très osé de la part de Nvidia
"Difficile en effet de ne pas tiquer face à la progression somme toute modeste de cette génération « Blackwell » lorsque les technologies (hyper sophistiquées) de NVIDIA ne sont pas mobilisées. "
Il est donc urgent d’attendre, merci pour ce bon article intéressant et complet. La gestion énergétique du GPU semble, sur le papier, prometteuse. Merci
Ben euh non c’est normal, ce ne sont pas les mêmes gammes de produits. Ce sont des itérations de produits différents.
Tu veux dire on a l’habitude oui … mais c’est normal euh non c’est pas normal, en mobile ta pas besoin de beaucoup de perfs pour dépasser une CG de l’ancienne génération qui est une gamme au-dessus.
Donc je suppose qu’il faudrait pas s’attendre à un miracle pour la RTX 5090 Mobile et ses 10496 Coeurs elle sera à peine plus puissante que la 4090.
Il va falloir s’habituer à ce que l’accroissement des performances ne proviennent plus que de nouvelles fonctionnalités. Il devient débile (et même physiquement délicat) d’augmenter le nombre de transistor juste pour la rasterisation. Il reste donc les optimisations et « bricolages » (FSR ou DLSS) pour augmenter les perfs et améliorer les effets visuels.
Il est logique (je n’ai pas dit « normal »! ) que NVidia se focalise uniquement sur ce qu’ils ont travaillé dans leur comm.
Donc sur les benchs « anciens » il n’y aura pas d’augmentation de perf sensible, alors que les nouveaux benchs ne tourneront pas sur les anciens matos. D’ailleurs lance pour voir un 3DMark 2001 et compare avec une carte HDG de 2001, tu verras un facteur largement en dessous du facteur de perf entre ta carte et celles de l’époque.
On a déjà eu ce genre de problématique pour pas mal d’évolution dans l’affichage: la compression de texture, les accélérations DX, le T&L hardware, …
Edit: Au final l’important n’est-il pas de jouer dans des conditions correctes aux vieux jeux et que les nouveaux jeux soient plus beaux tout en restant jouables (seule raison pour changer de matos pour le loisir).
Oui, la loi de Moore etc, mais là c’est même pas une petite augmentation, c’est rien%, tout se base sur le MFG (qui peut aider, j’en suis conscient), mais sortir un nouveau produit, qui n’apporte rien, c’est du foutage de gueule complet.
Le souci des FG/MFG, c’est que les devs vont encore moins en branler pour opti (coucou Bugthesda, pour ne citer qu’un exemple récent).
De mon côté, quand je compare les optis des jeux, enfin la non opti dans 95% des cas, c’est une catastrophe, et encore je m’en sors bien avec ma « vieille » 3090. Exemple, FH5, ultra-beau et méga-opti (tout en extrême (au-dessus d’ultra, donc toutafon), RT (DXR) en extrême aussi, vraiment tous les potards au fond, pas de DLSS ni rien, 160-170FPS en 3440x1440), et de l’autre côté, TDU SC (pas aussi mauvais que ce qu’on en dit, juste de très gros défaut, mais de bons points forts), graphismes corrects sans plus mais opti honteuse (toutafon, AVEC DLSS, je suis entre 35 et 50FPS…), et comme le FG d’Nvidia n’est pas dispo sur les RTX 3000 (foutage de gueule, encore), j’ai pris Lossless Scaling à -50%, pour tester, et effectivement, ça sauve les meubles (je bloque le jeu à 40FPS et je mets le x3 dans LS, c’est étonnament fluide, quelques artefacts, mais vu le gain de confort, c’est une broutille). Mais si certains y arrivent et font l’effort, la majorité ne le fait pas (et ne le faisait déjà pas avant les « fake frames », depuis c’est la catastrophe. Par contre les prix s’envolent…
J’imagine celui qui s’est crevé le derche pour acheter une 5090, qui joue au dernier Bugthesda et qui ne peut pas y jouer à fond avec le GPU le plus puissant du marché sans artifices… quelle indignité (autant pour NV et BT).
Je ne vois pas trop ce « non opti dans 95% des cas ».
La plupart des choses qui rament dans mes jeux sont effectivement très lourdes à afficher sur mes « petites » vega56, rx6800, gtx1080 et rtx3060 (textures, géométrie, shaders). Je suis même toujours surpris positivement du travail des artistes et des dev sur l’optimisation et l’impression visuelle en jeu, il faut vraiment faire une copie d’écran pour comprendre les optimisations.
Mais bon, je n’ai pas des tonnes de jeux non plus, il y a probablement des jeux mal optimisés auxquels je n’ai pas joué!
Pour reprendre ton FH5, il n’y a pas énormément de choses à afficher, c’est assez couloir la plupart du temps (Ok, c’est aussi une optimisation!), les reflets sont basiques voir étranges (mais fond la boulot en conduite), c’est très flatteur à l’oeil mais pas une prouesse technique pour moi. Peut être est-ce que tu appelles « optimisation »? J’ai juste essayé une démo (ou une pré-release?) de TDU SC, et j’ai joué seulement 5 minutes, c’était horrible comme jouabilité. Pas fait attention aux graphismes…
Certainement, les contraintes marketing étant souvent plus fortes que la volonté de sortir un bon jeu. De la à dire que c’est la majorité…
Crysis, le retour?
Pour moi il est normal qu’un jeu qui se veut une vitrine technique qui exploite des technos récentes soit un peu limite tout à fond même sur le top matos du moment. Tant que ça teste relativement joli et jouable sur des configs moyennes!
C’est rare de nos jours les jeux qui tournent correctement compte tenu de ce qu’ils affichent /calculent, les exemples sont légion, il suffit de voir tous les avis, tests et retours des différents stores et sites. Les gens sont même étonnés quand ça tourne bien, c’est peut-être un signe.
Oui, la grande majorité.
Pas énormément de choses à afficher ? C’est pas un GTA like mais le monde est dense et super détaillé, et c’est clairement pas un couloir, c’est même l’opposé d’un couloir.
Les reflets sont au contraire globalement très bon dans ce jeu en plus d’être assez peu gourmand (ce qu’on appelle optimisation…), les seuls bizarreries (pour économiser des ressources), sont celles qui utilisent du SSR (les checkpoints, par exemple, mais on ne le remarque presque pas en jeu).
Bizarrement, tout le monde fait attention à ses graphismes (et jugent le jeu dessus) et moins à sa conduite qui est bonne (mais très différente de FH).
C’est pour ça que tous les jeux ont des gros patchs parfois plus lourds que le jeu lui-même le jour de sa sortie, et que quasiment tous, à de très rares exeptions près, ne sortent pas totalement finis (encore une fois, les retours des gens, les tests etc, tous vont dans ce sens…).
Bah ça tombe bien… c’est pas du tout son cas. C’est propre sans être une claque, loin de là, c’est mal opti, ça stutter à mort (merci UE5…). Donc non, c’est pas normal. Si quand tu sors un jeu, personne ne peut en profiter, même sur des machines à 4 ou 5 000 balles, c’est que c’est pas normal. Ne pas en profiter à fond sur une machine milieu de gamme c’est normal, mais sur le top matos, ça n’a aucun sens.
Je ne vais parler que d’un jeu que je connais: FH5.
Regarde attentivement sans jouer (arrêt sur image ou vidéo), il y a définitivement un effet tunnel (collines proches, végétation dense, murs, …) avec du flou de mouvement sur les cotés. Alors oui le monde proche semble très détaillé mais il n’y a pas tans d’assets, de polygones et de textures que ça, le travail artistique est top mais techniquement ce n’est pas monstrueux, sauf pour les changements d’ambiance qui sont très fluides, ce qui est impressionnant avec tout ce qu’il faut recharger (encore une fois, les assets, les textures, la géométrie et les shaders pour tout ça).
Pour UE5, pour l’utiliser un peu, c’est une tuerie justement par les possibilités, l’optimisation et l’exploitation matérielle. Je pense surtout que certains jeux sont un peu trop gourmands en effets à cause de la « facilité d’en faire trop » pour un résultat visuellement inutile…
S’il y a du flou de mouvement, c’est que tu l’as activé (ou pas désactivé). Chez moi, j’en ai pas. Et un open world, n’est pas un jeu de couloir.
Heureusement que tu connais FH.
C’est pour ça que quasiment tous les jeux UE5 ont de soucis de stuttering (inhérent au moteur), c’est que c’est génial d’optimisation. C’est magnifique (enfin dans certains jeux), mais la vache les concessions qu’il faut faire pour l’exploiter.
Dans tous les cas, Oblivion Remasturd n’est pas un jeu qui « essaye d’en faire trop » (au contraire, c’est un Bugthesda, parmi les plus feignants du milieu, surtout les finitions), c’est un jeu pas vilain mais pas dingue et qui tourne super mal (en plus d’avoir des mécaniques dépassées.
L’UE5 est une tuerie visuellement (à condition de l’exploiter vraiment) et de simplicité, mais c’est tout. C’est justement eux, Epic, qui ont voulu trop en faire, et forcément le moteur à des soucis qu’on retrouve dans tous les jeux sous UE5.
Tu n’as pas compris ce que je voulais dire.
L’optimisation de FH5 passe par une conception du terrain particulière qui produit un clipping naturel, c’est un classique de l’optimisation particulièrement bien exploité. Bien sûr que ce n’est pas un « jeu couloir »!
Et pour UE5, j’ai justement dit que l’on est vite tenté d’en vouloir trop et de générer des ralentissements. Mais ça se règle très facilement en diminuant légèrement quelques options (si le jeu le permet). Mais je comprends que cela frustre quelques uns avec leur PC master race à 3000€, alors que objectivement, c’est déjà splendide avec un PC dans les 1000€.
Il faut aussi voir que suivant ta config, tu ne pourras pas pousser les mêmes curseurs, tu ne vas pas aussi facilement mettre du RT à fond sur une AMD ou avoir des shaders de folie sur une NVidia.
Donc, non, c’est pas optimisé.
3K c’est déjà plus ou moins le prix du GPU, donc si personne ne peut y jouer à fond alors qu’il n’est pas si beau que ça, c’est pas normal. Crysis à l’époque, au moins était une claque technique, c’était pas toujours super-fluide mais on comprenait facilement le pourquoi, ici on comprend surtout que c’est fait avec le cul.
Non mais merci, j’ai que 20 ans d’expérience avec les PC, je débute…
Surtout que quand on parle de 5090, on ne parle de GPU AMD, on ne devrait même pas parler de réglages d’ailleurs…
Je pense que l’on n’est pas vraiment d’accord sur les mots, donc difficile d’arriver à s’entendre!
Pour moi, UE5 pousse les curseurs bien au delà de ce que peut supporter une carte graphique, mais c’est son rôle: proposer toute une palette de possibilités, mais c’est aux devs (et un peu au marketing) de faire faire des choix, tout n’est pas utilisable en même temps.
Je ne vais pas étaler mon CV, mais je suis probablement encore plus « vieux »! Mais effectivement, même si le graphisme est mon boulot, je n’ai pas travaillé que sur PC (X, Phigs, SG, …).
Vu les specs de la 5090, elle n’est pas taillée pour le jeu, c’est pour moi un non sens (même si elle a aussi de gros défauts en OpenCL face à une AMD par exemple…). C’est une carte avant tout pour l’IA en cluster ou pour du CUDA!
Oui mais non. Oui, il doit en mettre plein la vue, et il le fait (sur certains jeux), mais au prix de stuttering même avec le meilleur matos même des années après, donc non.
Oui et non là encore. C’est une carte « entrée de gamme » dans le monde de l’IA (car ridicule et « pas chère » vs les GPU dédiés), mais les GPU IA ne font pas de jeux vidéos (enfin ils le font très mal), contrairement à la 5090 qui le fait très bien (même si décevante vu le peu de gap générationnel). Les xx90 sont des GPU de jeux, mais avant tout des vitrines, les prix sont absurdes mais ne sont pas fait pour être vendus à des millions d’exemplaires, le but pour NV c’est avant tout de dire « c’est moi qu’est la plus grosse », les xx80 sont proches en perfs mais presque 2x moins chère, c’est elles les bons choix haut de gamme.