Une équipe sino-russe vient de repenser fondamentalement l’exploitation des ressources d’un GPU grand public bien connu. Transformé en un outil de calcul scientifique d’une puissance absolument colossale, la carte graphique utilisé a été poussée à un niveau presque inimaginable.
« au moment de la rédaction de cet article, l’étude et ses résultats ne sont pas consultables ni accessibles publiquement »
Mouais… De mon côté j’ai réussi à fusionner la théorie Quantique et la Relativité Générale mais mon étude et mes résultats ne sont pas accessibles publiquement.
Quoi quoi quoi il faut optimiser sont programme après l’avoir écrit ? C’est comme le documenter, c’est pas super utile …
Tout le monde sait qu’optimiser un programme n’est plus fait depuis très longtemps … Surtout à l’ère des framework en tout genre
On parle de la Chine et de la Russie, qui doivent essayer de faire autant ou plus, avec moins de matériel pour cause de sanctions. Ceci dit, ça demande à être confirmé, car des déclarations peuvent être mensongères surtout provenant de ces « puissances ». Si c’est vrai on peut s’attendre que les cartes xx60 et xx70 disparaissent également des rayons.
Je pense que le côté « ahurissant » ne l’est que dans l’ignorance des journalistes qui perroquètent une source mal écrite. Le facteur 800 correspondrait à un code qui ne serait pas parallélisé, ce qui n’existe pas pour ce genre de programmes, les supercalculateurs sont tous des numa, c’est à dire multicore. On ne peut pas louer un supercalculateur sur un seul cœur, la demande serait refusée de toute façon. Du coup, le facteur 100 correspondrait plus à la réalité pour un code qui ne serait pas pensé pour être exécuté sur un supercalculateur (en gros OpenMP, c’est demander au compilateur d’écrire les threads et la parallélisation pour toi, c’est automatique, facile, mais c’est pas hyper performant).
Leur unique performance c’est d’avoir écrit leur noyau de calcul en CUDA pour un problème donné, comme il en existe des milliers d’autres. Si on devait faire un article à chaque code CUDA écrit et le comparer avec le code en C/C++ « optimisé » par OpenMP, on croulerait sur l’info bidon et inutile.
Pour faire simple: CUDA permet d’écrire des petites tâches qui s’exécutent sur des milliers de cœurs, ce qui est, de facto toujours plus rapide que les dizaines de cœurs d’un PC classique ou les centaines d’un supercalculateur. Mais par contre, chaque tâche doit être brève et limitée sur ses entrées sorties car chaque cœur CUDA n’a pas accès à beaucoup de mémoire. Ça limite fortement le type d’algorithme qui peut tourner sur ces GPU, et eux ont trouvé un algorithme qui s’y prête.
Connaissant ces deux pays deux hypothèses sont valables :
soit c’est de désinformation pure et simple pour démontrer que les sanction US sont inutiles et stupides donc ils n’ont rien à montrer.
soit ils ont vraiment réussi à le faire et ils ne vont surtout pas donner la « recette » au pays qui les sanctionne.
La belle crotte de nez. Pas franchement utile ni justifiée d’ailleurs.
Vide des sanctions et un bridage des GPUs pour ne plus permettre aux autres de faire de grandes choses (surtout sans notre autorisation) !!! ^^
En soit, la puissance brute d’une 4070 Ti, c’est 40.09 TFLOPS. C’est la puissance des meilleurs supercalculateurs internationaux d’il y a 20 ans sauf que là, on parle d’une carte à quelques centaines d’euros.
A titre d’exemple, ces capacités de calcul, certes d’il y a 20 ans, avaient permis de développer un avion comme le F35.
Relis toi loulou par pitié, je veux dire : les conférences non sollicitées sur un sujet mal maitrisé passent encore, les fautes également c’est pas très grave on est sur internet, mais là on ne comprend pas ce que tu dis: « vide des sanction et un bridage des GPU » ?
Quoi ?
Attention, ce n’est pas directement comparable.
Comme l’a souligné @xryl plus haut, les GPU ne sont adaptés qu’à certains types de calculs, sur des données très simples (peu de mémoire), mais également hautement vectoriels (faire exactement la même opération sur plusieurs opérandes), et avec une précision limitée. En double précision, tu tombes à 0.6 TFLOPS sur ta 4070 Ti… et autant la double précision on s’en fout dans pas mal de cas, autant dès que tu entres dans le domaine de la simulation numérique de pointe et de la recherche scientifique, elle devient indispensable.
La partie CPU des supercalculateurs est bien plus générique et capable de traiter des volumes de données bien plus importants et en double précision.
Les simulations qui tournaient sur les 50 TFLOPS de Tera-10 en 2006 avec ses dizaines de To de RAM et ses Po de stockage, ça ne tournerait même pas sur une RTX 5090 aujourd’hui, et encore moins une 4070 Ti.
« Connaissant ces deux pays »
Merci pour ce grand moment d’humour , vous y avez vécu longtemps?
T’espère vraiment une réponse ? T’en sais absolument rien mais tu te paies déjà sa tronche parce que ce qu’il dit ne va pas dans ton sens. Un être humain de qualité.
qui y croit ? surtout sans preuve et leur IA a 5 millionards de $ (ou pas)
Je ne dis pas le contraire mais ça présage tout de même des capacités potentielles d’un tel système sachant que les méthodes de calcul distribué ont également bien évolué…
Au contraire
C’est dommage d’avoir supprimé ton commentaire, il y avait matière à discuter.
Comme tu as choisis de le retirer, je ne vais pas citer tes propos par correction.
Ceci dit sur le sujet, je crois que les récriminations reposent avant tout sur une perception de l’article et de son contenu qu’à une lecture attentive. Tous les éléments de précaution sont là. Et Camille contrairement à beaucoup d’articles sur le même sujet que j’ai pu lire ailleurs prend le temps de remettre en doute les prétentions de cette équipe.
Je veux dire, de manière très factuelle : le titre reprend bien le claim de l’équipe de la Shenzhen MSU-BIT University (c’est vrai que si on pouvait arrêter de dire « les chinois » ce serait top ). Et le dernier paragraphe c’est quoi si ce n’est une mise en garde vis à vis de la crédibilité de ce claim qui n’est étayé par aucune démonstration ?
Personnellement je ne voyais pas 40 façon d’attaquer le sujet, le truc est présent à peu près partout et n’est que rarement contextualisé, le reprendre et ajouter ces caveat c’est déjà faire un chouette taf je trouve. Après on peut préférer la crotte de nez et poser en chair hein. Et à dire vrai, je comprends l’agacement vis à vis de cluclu hein, et nombre de fois ils méritent ce genre de commentaires (surtout étant donné qu’ils n’y répondent pas…) mais pour le coup je dirais que Camille prend une balle perdue qu’il ne mérite pas ici et maintenant.
HAHAHAHAHA j’en peux plus
Le mec fait une comparaison, on lui explique que ce n’est pas comparable, et il te répond « je ne dis pas le contraire » c’est un sketch ?
Pile je gagne, face tu perds
Un forumer apparament chinois en a parlé, ou plutot donné le lien ici
et a également donné sur ce même site south china morning post un article sur autre gpu chinois non huawei destiné à l’ IA qui à l’air intéressant et pourrait expliquer les progrès d’affinage, distillation, développement, renforcement, auto apprentissage dans les llm en Chine
Non mais, moi, je ne me permet pas d’être insultant envers quelqu’un qui émet juste une hypothèse.
Et à par le mépris auriez-vous quelque chose à partager ? Visiblement pas.