Commentaires : Lightelligence présente un processeur « optique » 100 fois plus puissant qu'une RTX 3080

L’informatique optique promet des processeurs
autrement plus puissants que ceux que l’on connaît aujourd’hui.

2 « J'aime »

Waouww !
J’espère que ça aboutira assez rapidement.
En plus, ça ne dois pas chauffer, ou même pomper du courant. :smiling_face_with_three_hearts::heart_eyes::heart::+1:

@SPH attends, d’ici la que ça soit dispo, tout les mineurs vont se jeter dessus ^^

6 « J'aime »

Qu’entend-on par « 12 000 dispositifs optiques »? Cela représente quoi comme volume ?

1 « J'aime »

Ils devraient miner du bitcoin pour se financer…

Je pense que c’est le nombre de transistors photoniques sur la puce, ou l’équivalent de portes logiques pour les FPGA.

1 « J'aime »

En gros, ça peut tourner à 1 THz :smiley:

1 « J'aime »

Des chercheurs chinois ont eux fabriqué des cpu’s optiques quantiques expérimentaux, je crains qu’ils aient un train d’avance sur cette société US…

Et puisqu’ils comparent la puissance de calcul de leur grappe de CPU’s à une RTX 3080 en disant que leur produit est 100 x plus rapide, je serai curieux de savoir quel volume en mètres cubes occupe leurs 12 000 dispositifs optiques pour pouvoir faire une vraie comparaison et savoir combien de 3080 on pourrait caser dans ce même volume…

La photo est dans l’article, pas plus gros qu’une carte graphique ordinaire… Les 12 000 dispositifs sont dans ce qui ressemble à un GPU, avec la fibre optique qui en sort…
Comme si on te montrait un transistor 2N3904 puis qu’on te disais que les processeurs en contiennent des milliards, mais non, la ministurisation existe aussi dans la photonique !

1 « J'aime »

a priori les 12 000 dispositifs seraient le nombre de « capteurs » present sur le die que l’on voit sur la puce dans la photo.

Mouais, plus rapide mais pour certains calculs bien précis. Quid pour faire tourner Win11 et un jeu bien gourmand ?

De toute façon, il ne faut pas se leurrer. On ne va jamais avoir tout à coup un ordinateur 100x plus rapide pour remplacer le précédent. Ca va seulement permettre d’avoir - comme toujours jusqu’ici - des nouveaux modèles de composants un peu plus puissants qui sortent tous les 6 mois.

Si cela se concrétise, cela impliquerai des pas de géants dans la démocratisation d’un nombre incalculable d’applications (recherche, big data, voitures autonomes, jeux vidéos…)
Ca me semble trop beau pour être vrai :wink:

2 « J'aime »

Même si le CPU photonique prenait 10 fois plus de place qu’un CPU normal, je l’achèterais.
On accepte bien des 3080Ti qui sont 5 fois plus grosses que nos ancienne CG !!..

Ce n’est pas du tout le but, c’st expressément développé pour accélérer certains calculs précis, ce n’est pas un processeur généraliste. Ce n’est pas parce ce c’est comparé à une CG que c’est forcément dédié au JV.

3 « J'aime »

Effet d’annonce pour lever des millions à un tour de table, puis dans un an ou deux : « ah bah finalement c’est pas puissant du tout » et les millions auront bien fait vivre les fondateurs de la start-up… Enfin, j’espère me tromper mais 95% de chances que ça se passe comme ça…

Ca ne remplace peut être pas un CPU ou un GPU mais ça peux épauler…

On peut miner des cryptos avec ?

Je plussoie, et c’est bien mon point également. Le titre de l’article mentionne une carte graphique (bon je sais elle peut faire autre chose, mais elle est fortement assimilée au gaming quand-même). Or le matériel optique n’a probablement pas pour vocation première les besoins généraux de monsieur tout-le-monde.

1 « J'aime »

De par leur mode de fonctionnement, les GPU sont capable d’effectuer des traitements massivement parallèles, qui sont particulièrement intéressants pour les mathématiques appliquées. Dans le cas de Nvidia, cela est rendu possible grâce à CUDA.
C’est cette particularité des GPU qui est comparée avec ce processeur optique, pas ses capacités graphiques.
(Ces possibilités offertes par les GPU sont d’ailleurs bien utilisées du côté du grand public : montage, traitement, encodage et décodage vidée, traitement d’images, IA, détection d’objets…, tout cela n’a rien à voir avec le JV, ni même la 3D au sens large, et utilisent pourtant bien les capacités de traitement des GPU.)

2 « J'aime »