Commentaires : Alerte générale ! Chrome 113 va activer le support du WebGPU, comment cela va changer notre expérience sur le web

Avec Chrome 113, Google va donner le coup d’envoi tant attendu de WebGPU, qui va donner un énorme coup de boost aux performances graphiques sur navigateur web.

Moins d’autonomie sur un ordinateur portable pour des futilités qui activent le gpu…

6 « J'aime »

Moi je vois justement l’interet dans du B2B … pour faire des rendus légers et rapides.

C’est sûr que de jouer aux jeux vidéos sur un portable, ça n’affecte pas du tout son autonomie hein, en plus d’être encore davantage futile. Mais bonne nouvelle, les PC fixes n’ont pas ce problème !

Un GPU est plus efficace qu’un CPU pour les tâches qu’on confie habituellement à un GPU.

Donc si d’un côté il y en a peut-être qui vont en profiter pour mettre des effets kikoo lol inutiles (mais là, à toi d’être intelligent et de fuir ce genre de sites…), ça peut aussi réduire la consommation de certaines choses actuellement traitées avec le CPU ou en WebGL.

3 « J'aime »

Quelques détails de communication qui sont peuvent preter à confusion

Citation

Après des années de développement, l’équipe de Chrome déploie WebGPU, qui permet des graphismes hautes performances en 3D et le calcul avec parallélisme de données sur le web », annonce Google> Citation

WebGPU n’est pas développé seulement par google mais par un consortium regroupant des centaines de firmes (ça peut être oppo, tencent, nvidia, université de Lyon etc)**
On peut supposer que les usa sont les premiers contributeurs (et fondateurs) suivi par les chinois (en nombre de compagnies et en financement)

C’est un peu comme le code AOSP et le kernel linux. Le kernel linux a comme contributeurs majeures depuis trois ans : intel, huawei google. L’AOSP bien que porté par google, porte du code de toute l’industrie. Le principe de l’open source en fait. La license apache permet à chacun d’insérer son code propriétaire.

A titre d’exemple, les gens n’ont jamais compris que le fait que Huawei utilise encore EMUI est tout à fait légitime puisqu’il fait partie du groupe de développeurs (OHA)
Sur harmonyOS, ils ont repris du code open source et ont ajouté leur code propriétaire. Ce b’est pas un fork, c’est un contre projet. Huawei ont la main sur le sens du développement d’harmony mais Openharmony est communautaire.
la seule différence ici est le publicateur finale du code (upstream). Pour AOSP, c’est google et pour Harmony c’est huawei. Par contre, huawei

Rappelons aussi (du moins initialement) que les android utilisait une version forkée de linux (ce qui a déplu à linus)

Je fais en hypersimplififié : dès qu’un projet open source est repris par un autre pour qu’il lui donne sa vision et choisi son code finale des différents apports, on parle de changement (upstream/downstream)

Quand google publiait lui même le code du kernel linux (et non pas la linux fondation), techniquement, c’était un fork. Depuis ça a apparemment évolué.

Citationles supports de bureau Windows, ChromeOS et macOS en premier lieu, puis sur les autres plateformes dont Android et Linux « bientôt », promet Google

Citation

pour être plus précis, Chrome OS, Android et même windows (dans une certaines mesures) contiennent du kernel linux. Ce que l’on appel communément linux (qui est en fait un noyau et non pas un os), est GNU/Linux. Chrome OS fut (ou est encore), une forme modifiée ou dérivée de GNU.
Le terme GNU devrait être généralisé, car il y a beaucoup de confusion autour

3 « J'aime »

Quel interêt reste t il au programme dit « client lourd ». Certes il doit y avoir un overhead du fait d’être dans un navigateur mais ca doit être minime si on commence à utiliser ce genre de puissance. Bref je trouve ca assez interessant même si au quotidien ca va pas me boulverser d’autant que certaines librairies comme BabylonJS permettent de faire déjà beaucoup de choses. Ca va juste booster les perfs (et consommer plus).

Exact, dans certains cas, c’est le nombre de cores (calcul en parallèle) qui sera + efficace, par ex. pour un rendu 3D ou de l’encodage vidéo.

Comme pour les voitures électriques, une Audi e-tron GT va consommer plus qu’une Dacia Spring mais avec des performances différentes.

2 « J'aime »

J’ai quand même parfois l’impression que, depuis qq temps, plus mon cpu à de core plus le gpu fait son boulot :joy:

Je sais aussi une chose, les pirates vont s’intéresser férocement à ce système, cela a intérêt a être bien sécurisé. Quand j’ai bricolé avec stable diffusion en local j’ai trouvé cela assez perturbant de faire chauffer ma carte graphique sans que le cpu et le gpu ne bouge d’un poil. (fallait passer de « 3d » au bon choix (cuda) pour le voir)
Bon ici c’est axé 3D donc ce sera visible dans gpu, je note : prendre l’habitude de regarder gpu en + de l’usage cpu

Essai des exemples dans Edge : ca marche déjà ?
Un cube qui tourne(avec la texture « cube de la frame précédente » quand même), dans le pire moment cela donne deja :

Le test :
Textured Cube - WebGPU Samples

Le truc chiant avec WebGpu, c’est que pour les shaders ils ont créé un nouveau langage qui ne ressemble à rien, au lieu de se calquer sur GLSL et HLSL qui se ressemblent tant (et il est facile de traduire l’un en l’autre juste avec quelques macros).
On passe à n+1 standard, bravo. Mais il semble possible d’utiliser des shaders écrits en GLSL avec des CustomMaterial.

WebGL est plus simple sur ce côté.