Le géant japonais Fujitsu veut développer un ordinateur quantique supraconducteur de plus de 10 000 qubits. Sa livraison est, sur le papier, prévue en 2030.
Si est aussi fiable que le logiciel à un milliard de livres sterling, développé pour la poste britannique par la filiale ICL Pathway, fondée par Fujitsu dans les années 2000…
« L’exploit fou de Fujitsu qui vise les 10 000 qubits quantiques d’ici 2030 »
plutôt le rêve fou, ou l’ambition folle.
Le seul exploit c’est que pour l’instant il joue à kikalaplusgrosse mais sans la montrer (selon le titre).
A dans 5 ans pour voir qui arrivera à s’envoler en faisant l’hélicobip
plus on met de qbits plus il faut « porphyriser » la détéction d’erreur, au point tel qu il y a, comme ici, plus de Qbits dédiées à la tolerance et correction d erreurs que de qbits concervant l’information, les Qbits de corrections/conservations augmentent exponentiellement par rapport au Qbits réels.
C’est certes différents, mais je vois un rapport équivalent avec l’utilisation de l’IA, inférence qui utilise des GPU et dont les sommes de contoles deviennent ingérables sur des très gros modèles monolithiques, solution : Groq et ces puces analo numériqueS, en analogique la précision de 80 a 90% suffit, il suffit alors de peu électronique binaire pour conserver et vérifier cette précision, le tout pour une consommation divisée par plus de 10.
En lisant le titre, où est l’exploit ? d’avoir juste fait une annonce ?
Clair… mais en même temps…est ce qu’il y tant de différences que ça entre l’informatique de l’an 2000 et maintenant ?
Les débits des réseaux a explosé certes, on est passé du cuivre a la fibre, ok. Le matériel au sens large est devenu plus puissant mais internet existait déjà, les OS Windows et Linux idem, la plupart des technos BDD et de programmation existaient deja …
Finalement, l’informatique en tant que telle dans son ensemble n’a peut être pas tant évoluée que ça ![]()
.
Par contre avec les ordinateurs quantiques… là c’est autre chose ![]()
![]()
L’annonce invérifiable de Fujitsu qui bien sûr se garde bien de préciser que les qbits par milliers des uns ne valent pas les qbits par centaines, voire dizaines, des autres…
Bien sûr que si il y avait des attaque ddos dans les années 2000. La 1er même doit dater des années 90.
Tu parles pour des particuliers. Effectivement l’informatique a évolué en 20 ans et … heureusement. Ceci étant ce qui a beaucoup évolué c’est la puissance matérielle mais il n’y a pas eu de grande révolution, comme dans les années 90 ou comme avec l’arrivée de l’IA.
L’iot c’est un élément un peu à part. Pas vraiment de l’informatique au sens informatique restrictive du terme. Technologiquement parlant la seule vraie révolution que je vois dans le domaine c’est la fibre. Nouvelle technologie avec des débits pas imaginables il y a 20 ans sauf dans des laboratoires. Il y a aussi la Blockchain mais pas vraiment utilisé par les particuliers.
Internet existait, l’architecte des pc serveurs, lan, BDD, applications 2/3, applications web … Tout ça était déjà là…
Il y avait même les prémices du cloud. Mais bon…, après c’est une question de point de vue.![]()
C’est un peu comme dire que les voitures de maintenant ne sont plus les mêmes que celles d’il y a 20 ans. C’est vrai… mais le mode de fonctionnement est toujours le même :4 roues, 1 volant 1 moteur
. Sauf que maintenant elles ont l’abs , les calculateurs… mais intrinsèquement parlant elles n’ont pas évolué tant que ça ![]()
![]()
Tout dépend si on parle d’un point de vue restrictif ou pas.