Commentaires : Qualcomm à pied d'œuvre sur le Snapdragon 8 Gen2, il devrait améliorer la prise en charge de Netflix et YouTube

Alors que MediaTek, Broadcom et Samsung gèrent déjà le codec vidéo AV1
sur leurs SoC, Qualcomm fait figure de retardataire sur le sujet.

1 « J'aime »

Qualcomm suiveur de MediaTek.

Elle commence à devenir funky cette réalité alternative dans laquelle on baigne depuis plus de deux ans.

Salut,
J’ai une question un peu bête/technique : une puce snapdragon peut-elle épauler un CPU ou même un GPU ? (dans un PC) :thinking:

CàD ? Une puce Snapdragon c’est un CPU+GPU+…

En fait, j’imagine une CG sur laquelle il y aurait un GPU 3070Ti (par exemple), et en plus, une puce snapdragon. Vous moquez pas, je suis sérieux.
Par exemple, avant (il y a 30 ans), le CPU faisait les calculs d’un GPU. Il n’y avait pas de CG dans les PC. Puis sont apparût les CG. On peux dire que les CG épaulaient les CPU dans la catégorie graphique.
Maintenant, et si la CG elle même était épaulée par une autre puce (un snapdragon par exemple) ?
:astonished:

C’est une puce mobile, elle n’a pas vocation à aller dans un PC.

Un GPU est une puce dédiée « graphiques », elle peut être épaulée pour des fonctions spécifiques comme on l’a connu avec les PhysX, par exemple. Du coup, techniquement oui tu peux « aider » un GPU avec un CPU ARM pour certains fonctions, reste à trouver lesquelles :wink:

Alors non, il y a 30 ans, il y avait déjà des puces spécialisées dans l’affichage, seulement elles étaient basiques et sans aucune possibilité de calcul ni d’accélération, il y avait juste une gestion d’une mémoire cache pour les pixels et la génération du signal vidéo (bon la gestion du mode texte était un peu plus compliqué mais je schématise!), tout comme la puce sonore qui faisait la même chose mais créait un signal audio. Le proc construisait l’image dans le buffer vidéo.
Il n’y a aucune impossibilité technique pour associer des puces (surtout qu’elles gèrent toutes un canal de communication très pratique: l’USB) mais cela a juste peu (voir pas) d’intérêt.
Tu penses à quel genre d’utilisation?

Haaaa PhysX, si seulement ça avait percé et que la technologie avait progressé.
Je déplore l’absence quasi totale de physique, d’interaction et de destruction dans tous les AAA depuis des années.

Quand tu vois que le jeu où la physique est la mieux exploitée c’est Zelda Breath of the wild, ça donne envie de pleurer…

Tous les jeux récents ce sont des décors statiques dans lesquels un personnage se balade.

Alors oui une carte dédiée PhysX serait la bienvenue, ce serait peut être vu comme une option de bourgeois mais au moins le JV ferait un véritable pas en avant en intégrant de l’interactivité

Si on pouvait aussi avoir une carte dédiée « AI Power Ultra » pour qu’on ait une intelligence artificielle digne de 2022 dans nos jeux, parce qu’à l’heure actuelle on arrive rarement au niveau de F.E.A.R qui doit avoir 15 ans !

1 « J'aime »

En théorie pourquoi pas. Des ordinateurs multi-cpu existent depuis longtemps.

En pratique ce n’est pas conçu pour qu’on le fasse.

Ceux qui disent le contraire ne savent pas de quoi ils parlent

Pourrait, il faut voir les I/O qui sont disponnible et l’utilité… :slight_smile:

Xilinx fait déjà des cartes PCI express avec un SoC FPGA+Arm ou alors tu peux deployer des softcore (cpu) sur des FPGA…
Après, à toi de déployer du code sur la puce qui convient le mieux à ton application ^^

Un exemple concret : les cpu Intel et AMD ne sont pas terrible pour faire du temps-réel…alors que les ARM cortex M le sont…

digilent.c0m/shop/netfpga-sume-virtex-7-fpga-development-board/