Le multi core est il un échec industriel?

Certains auront, je pense, flairé le gros Troll du Lundi soir mais sachez (bandes de paranos) que si je crée ce Topic c’est uniquement dans le but de porter un regard objetif et détaché sur ce que l’avenir nous réserve ou plus clairement Intel, AMD et bientôt nVidia et ATI optent-ils pour le multi CPU/GPU uniquement parce que
leurs ingénieurs ne sont pas capables de mettre en place de nouvelles solutions technologiques?

Il me semble que si les 4GHz ne se sont jamais pointés à l’horizon c’est uniquement par ce que les fondeurs ont TOUS perdu la course aux GHZ, à aujourd’hui le multi CPU semble être le nouvel eldorado technologique mais qu’en est-il vraiment? Il semblerait en effet que ce type de solution posent de graves problèmes au développeurs aussi bien de jeux que d’autres applications. Je n’ai jamais entendu parlé du moindre jeu optimisé Quad Core (si quelqun en connait un je veux bien une réponse).

Il m’apparait comme évident que les fondeurs sont arrivés au bout du silicium (qui est utilisé depuis le 4004 de Intel qui date des années 70) et pour masquer un échec cuisant à savoir l’incapacité à proposer une nouvelle technologie VRAIMENT novatrice, un peu comme le jour où on est passé du charbon à l’essence comme source d’énergie. A aujourd’hui le processeur quantique fonctionnant en bits quantiques est à l’état de prototype du MIT, je me permets donc d’être particulièrement septique quand à l’avenir des puces qui semblent atteindre leurs limites ( à partir de 16 cores dans un CPU les performances chutent d’après les premiers essais réalisés en laboratoire) et je crains que tout ce beau monde aille joyeusement se mettre la tronche dans le mur.

Je crois surtout que les processeurs multicore (qui de toute manière ne sont selon moi qu’une étape vers le massivement parallèle - mais je peux me tromper :ane: ) sont lourdement handicapés par des développements logiciels lourds et qui sont assez peu multithreadés essentiellement à cause de l’héritage monothread et des anciennes archis :neutre:

Il faut noter aussi qu’hormis les processeurs quantiques (qui posent de gros soucis de stabilité, les qbits pouvant changer d’état lorsque l’on essaie d’y accéder … en lecture … ) une autre voix aurait pu être explorée: Les processeurs asynchrones ou auto synchrones.

Malheureusement là encore le gros gros soucis vient avant tout d’une couche logicielle qui devraient être entièrement repensée et redéveloppée …

Il y a une chose très importante à ne pas perdre de vue: La compatibilité avec l’existant.

Au final il est relativement simple de développer une nouvelle archi matérielle performante et novatrice, la garder compatible avec l’existant est bien plus compliqué …
Edité le 04/08/2008 à 21:39

Donc les méthodes de développement du passé sont responsable des galères actuelles (comme quoi la majorité des problèmes vient bien du hardware en la chaise et le clavier :ane:)

Flight Simulator X :oui: et Supreme Commander il me semble.

C’est une bonne explication, je le vois au niveau professionnel, les habitudes de programmation ont la vie dure, rien qu’en ce qui concerne la programmation objet (pas un truc vraiment nouveau quoi), encore beaucoup de gens ne savent pas réellement programmer objet (du moins pas efficacement).
La programmation multithread c’est pareil, les développeurs sont trop habitués à faire du monothread pour pouvoir faire du multithread efficace (c’est à dire pas un truc où les threads passent leur temps à attendre que d’autre threads aient fini de bosser). C’est vrai que c’est pas simple, mais ça s’apprend :neutre: (et former tout le monde ça prend du temps :wink: )
Edité le 05/08/2008 à 16:07

si je me trompe pas aux Etats Unis c’est 3 programmeurs pour 1000 personnes ==> soit 3*3 000 000 /1 000 = 9000 personnes à former rien qu’aux Etats Unis