Pour info les M1 supporte l’accélération du ray tracing.
Via un arbre dont le parcours est accéléré, ainsi que l’accélération de l’intersection ray triangle.
Plus la possibilité d’implémenter ses propres algos d’intersection
les rédacteurs ne peuvent pas supprimer de messages, c’est soit la modération, soit la team Clubic qui le fait.
ta manière d’exprimer ton désaccord contrevient largement à la charte du site.
4. Faites preuve de tolérance
Qu’il s’agisse de rédacteurs professionnels ou amateurs, de lecteurs experts ou passionnés, vous devez faire preuve de tolérance et vous placer dans une démarche d’entraide.
5. Restez courtois
Particulièrement lorsque vous exprimez votre désaccord, critiquez les idées, pas les personnes. Évitez à tout prix les insultes, les attaques et autres jugements sur la forme des messages.
6. Publiez des messages utiles
Chaque participation a vocation à enrichir la discussion, aussi les partages d’humeurs personnelles ne doivent pas venir gêner le fil des échanges.
Oui, j’ai été voir Neon Noir avant de commenter, mais je reste perplexe sur la qualité et l’efficacité par rapport à de l’accélération matérielle… pourquoi il y a peu c’était impensable de faire du ray tracing temps réel sans HA et maintenant ça devient tout d’un coup faisable ?
Il y a eu énormément de recherche et d’évolution dans le domaine du JV ces 3 ou 4 dernières années (du coup le commentaire de l’autre « pas de jeu sur Mac = les dévs sont des feignasses » m’insupporte…). De plus en plus de partie du pipeline fixe (la triangulation des meshs, le backface culling (voir cette présentation d’un ancien collègue qui transforme la géométrie et la cull sur compute shader pour sauver du boulot au GPU; il a bossé sur Nanite chez UE), l’interpolation, l’écriture par les ROPs appliquant les filtres de transparence etc.) sont remplacées par du code soft. C’est ce qui a donné le forward+, les buffers de visibilités, nanite (basé sur les bugs de visib) etc.
Et surtout sur les techniques d’antialiasing temporel et spatial. Maintenant on peut lancer suffisamment de rayon (et on peux désormais se limiter à moins d’un rayon par pixel de l’image finale) puis interpoler et enlever le bruit de façon propre. Alors qu’il y a 5 ou 10 ans on pensait devoir lancer au moins 10 ou 100 rayons par pixel pour avoir un éclairage non bruité.
Mais RTX hardware ou RTRT par compute shader, on utilise un mélange de forward (rasterisation), pour savoir ou plaquer la géométrie sur l’écran, et de raytracing seulement sur certaines parties (éclairage complet, ou seulement les réflexions, et/ou les ombres). On n’est pas encore à un niveau de faire tout le rendu en RTRT, mais on sait désormais cacher la différence.
Une chose intéressante : le RTX ne fonctionne qu’avec de la géométrie triangulée. Si on veut du nanite pour avoir une géométrie plus détaillée, ou des SDF, le RTX n’est plus possible.
Que de commentaires sur le jeu vidéo sur Mac, alors qu’il n’y a quasi aucun jeu vidéo sur Mac …
Il y a différentes raisons à celà, déja la taille du marché (10% des ordinateur aujourd’hui, déja c’est pas grand chose, mais historiquement ça a longtemps été autour de 3 à 5%)
Ensuite pendant une décennie les Mac étaient mal équipés niveau GPU (mais ça, c’était avant)
Enfin, les Macs les plus vendus et de loin sont les MacBook Air (et les MacBook Pro 13’’ bureautique, c’est à dire la même machine), qui sont dépourvus de GPU dédié
Mais surtout, il y a longtemps eu un dédain de la part d’Apple pour ce marché, rien n’a été fait pour favoriser cette activité sur Mac. J’ai envie de dire que c’est « un peu » en train de changer, mais l’historique est là
Tout sur le marché Mac est fait pour ne pas plaire aux éditeurs de jeux AAA
Maintenant si on oublie le segment des jeux AAA, il y a plein de jeux casual sur Apple Arcade, largement de quoi faire, mais c’est pas le même trip
Les seuls machines réellement capables de faire tourner du jeu vidéo AAA sont les gammes « pro », des machines coûteuses et essentiellement destinées à une clientèle professionnelle
Il n’existe pas de machine accessibles (1500€ environ) et dotées d’un GPU un peu capable pour du jeu vidéo AAA
Les Radeon pro ne sont pas les CG les plus véloces sur laptop, et les RTX quadro pourquoi pas, m’enfin bon aujourd’hui de plus en plus de monde bosse sur du matos grand public (quand c’est plus intéressant, mais vaste sujet), donc cibler le haut de gamme nVidia grand public c’est pas un mauvais marqueur
Moi je suis dans la créa, j’ai en permanence ouvert Photoshop et After Effect et Bridge, et suivant les projets, du Première, du Blender ou du C4D, du Illustrator, Audition, Lightroom, etc, etc
Quand j’ai de la 3D « sérieuse » à traiter (film avec rendu photoréaliste), je fais appel à un collègue dont c’est le métier principal (il bosse sur PC)
Du coup, avec Nanite qui risque d’être généralisé sur les prochains jeux, aucun intérêt d’avoir une carte qui supporte bien le RT HA ? Je veux dire par là qu’il vaut mieux une ATI moins cher pour autant de puissance, mais qui gère mal le RT ?
Justement on peut pas comparer 2 opérations différentes pour savoir qui s’en sort le mieux !
C’est pas parce que tu exécutes une application qui a le même nom en ARM ou en x86 que tu peux comparer !
Sinon ta qu’à comparer une application Android avec la même en x86 et déduire que ton CPU sous Android est finalement plus rapide qu’un CPU desktop alors que c’est juste l’appli qui est allégée sous android et surtout pas la même architecture.
Disons qu’il faut d’abord définir ce qu’on cherche à comparer. Si on se place d’un point de vue d’utilisateur final, on peut sans souci comparer deux architectures différentes, du moment que les fonctionnalités offertes sont les mêmes.
Par contre, si on souhaite comparer le fonctionnement des architectures en tant que tel, évidemment que ça va coincer.
Selon moi, c’est similaire aux personnes qui disent, lors d’une comparaison entre un appareil Android et un iPhone « le premier permet d’exécuter plusieurs applications en même temps et ne tue pas les applications aussi souvent que le second, mais bon, c’est normal, il a 8 GB de mémoire contre 4 GB ». Oui, c’est vrai. Sauf que, encore une fois, du point de vue de l’utilisateur final on s’en moque de savoir quelles sont les caractéristiques techniques, ce qui compte c’est le résultat.
HAL1 honnêtement je lâche l’affaire à essayer de faire comprendre aux gens … quand je vois certaines comparaisons sur internet behhhh je me dis qu’Apple a gagné surtout la guerre du marketing plus qu’autre chose !
Sinon celui qui claque 4000€ sur un MBP M1 Max c’est pas pour jouer avec mais bon.
On compare une fausse 3060 et une fausse 3080 , c’est totalement honteux comme comparaison , une 3080 portable à 100w on divise les perfs par combien ? 50% ? Testons un pc portable au même prix pour voir avec du maxQ booster à fond ou plutôt du 150w pour cette ref…la comparaison avec des 2060 portable aurait été plus équitable nan?? Actuellement je vois une publicité mensongère de Clubic pour faire acheter du apple
Tout le monde fait du marketing, Apple pas plus ou moins que les autres… et surement de manière plus honnête.
Entre les dernières campagnes d’Intel qui tente vainement d’expliquer qu’un core i mobile c’est « mieux » que les M1 avec force exemples douteux
…ou les pages du site Xiaomi qui vantent les qualités de leurs moniteurs dans une mise en page « à la Apple » avec des arguments du type « Full HD pour une résolution incroyablement détaillée » pour nous refiler un 27’’ en 1920x1080, à l’heure du 4K c’est quand même fort de fruit, ou « Prend en charge une large gamme d’interfaces » et sur la photo il y a deux ports : un HDMI et un VGA…
Au moins chez Apple il y a force benchs et témoignages utilisateurs qui démontrent les qualités des M1, des M1 Pro, des M1 Max
Attention, je ne suis surtout pas là pour dire « Apple c’est mieux », ce n’est pas vrai, le mieux c’est la config et l’OS qui est le plus adapté à chacun, et par ailleurs dans nombre de domaines les PC sont bien plus adaptés (bureautique légère, jeux vidéo, domaines pro spécifiques type CAD, 3D, etc)
En revanche, je suis prêt à défendre bec et ongle que chaque config Silicon chez Apple vaut le prix demandé. Aucun souci pour ça
Je crois qu’au fond, tout est dit dans cette phrase !
C’est compliqué, chacun cherche des marqueurs pour savoir qui correspond à quoi et à quel prix. C’est parfois honteux on sera d’accord, mais il y a une tentative de tenter de comparer un matos avec un autre, souvent en mettant en avant un angle et en cachant sous le tapis un autre
Moi je regarde toujours les benchs (GeekBench 5, CineBench, PassMark, etc) ainsi que les comparatifs « douteux » dont tu parles, mais en vrai, ce qui m’intéresse au final c’est les retours utilisateurs avec les logiciels que j’utilise. Et ça, ça parle 10x plus que les benchs