Commentaires : Intel le confirme : le LGA1851 est bien son prochain socket desktop

Deux petites générations de processeurs et puis s’en va : les (mauvaises) habitudes ont la vie dure chez Intel.

1 « J'aime »

C’est un faux problème pour l’immense majorité des gens en réalité je trouve, je/on change tellement rarement de CPU (5-10 ans), que je change absolument tout mon PC quand cela doit arriver (nouvelle norme PCI, nouvelle norme USB, nouvelle norme SATA etc etc…)

7 « J'aime »

Je vois pas ou est le problème. Une grande majorité de gens gardent leur CPU plusieurs années.
Puis tu parles d’un scoop ! Ca toujours été comme ça chez Intel. Et encore, on a connu bien pire ! Le coup des 486 / 487 !

+1. Surtout aujourd’hui, avec des gains de performances beaucoup plus lents que dans les années 90/2000, c’est devenu vraiment peu intéressant de garder un CPU moins de 5 ans.

3 « J'aime »

Ma question est très innocente mais à quoi cela sert-il de changer le socket ? Y a-t-il des raisons techniques ? Sont-ce des raisons économiques ? Un mélange des deux ? Merci pour vos réponses :slight_smile:

1 « J'aime »

garde* ^^

Mais effectivement, il est loin le temps où une gen de plus pouvait changer la donne.

Un mélange des deux. Des fois, c’est quasi purement pour le plaisir de changer :sweat_smile:

Mais il peut y avoir des raisons techniques : évolution des I/O (nouvelle génération de DDR ou de PCI-E, ajout de lignes supplémentaires…), besoin d’une puissance électrique supérieure…

2 « J'aime »

C’est marrant, personne n’a encore parlé de l’impact environnemental de ce changement de socket qui implique de changer de carte mère et potentiellement tous les composants (et logiciels) qui vont derrière…

L’impact écologiques ? Rien n’est plus ecologique que l’informatique. Il reduit l’espece humaine au tout automatise. En clair, tu n’as plus besoin de bouger les fesses de ta chaise pour aller polluer en faisant une activite a l’extérieur a depenser dans du materiel ou faire de la voiture (sauf a marcher ou faire de la course a pied) ou a regarder la tv (qui n’est plus ecolo qu’un pc).
Tu vas me dire, « regarde google et ses data center…le niveau des océans baissent avec leur réchauffement) ».
Je te répondrai, qu’avec une seule requête en base de données, google (ou youtube) peut dropper des millions de videos qui servent a rien…et donc vider la moitie de ses data centers. C’est lui qui choisira la duree d’un droit a l’oubli (en plus des lois).

2 « J'aime »

Si tu te soucies d’environnement, tu changes pas de CPU d’une génération à l’autre, tu fais durer au moins 5 ans, sinon plus, et là de toute façon le changement de carte mère est « obligatoire » pour se mettre à la page.

Au final, le seul cas où c’est problématique, c’est en cas de panne du CPU ou de la carte mère, on ne peut pas en profiter pour upgrader le composant en panne en gardant celui qui est encore fonctionnel.

Pour l’écologie pas besoin de se priver d’upgrade, suffit de mettre son ancien matériel en vente sur LBC ou autre si on en a pas besoin.

Les écolos extrémistes qui sont dans les commentaires vous êtes chiant, je plains vos proches.

Hélas oui, mon i5 4690K faisait encore très bien l’affaire et suffisait à mes besoins quand sa carte mère Z97 a grillé après 5 ans 1/2. Entre les occasions douteuses et les soit disant neuves à prix astronomique, pas d’autre choix que de tout remplacer. kurdent

Intel cherche tout simplement à « forcer » la main, et ce sans aucune considération pour l’impact environnemental. L’industrie informatique est l’une des plus polluantes au monde.

Amd a prouvé qu’il était tout à fait possible d’améliorer considérablement l’architecture d’un CPU sans revoir le support.

Sauf que Gogole ne le fait pas tant que l’utilisateur moyen continuera de boire bêtement le discours marketing en se disant que « WOW gné c’est SUPER génial je veux la 4k en streaming sur mon 24 ça rend la vie plus belle !!! ».

Alors que dans la majorité des cas du 720p, voire du 1080p suffisent largement pour apprécier le spectacle confortablement.

Va dire ça aux habitants des régions qui se font défoncer les sols, les montagnes avec de gros soucis d’eau potable.

Oui la 4k ca sert a rien. D’ailleurs la 8k va etre interdite en Europe … l’humain n’a pas un oeil de lynx. Ca nécessite des dalles avec je ne sais combien de pixel a illuminer … tres energivore. Tout ca a cause du bullshit marketing qui manipule les gens en disant c’est mieux ! La consommation responsable est encore loin d’etre en place hélas.

Et de toute façon, vider la moitié du stockage de ses datacenters, ça aurait relativement peu d’impact sur leur consommation, tout en nécessitant d’effacer beaucoup (beaucoup beaucoup) plus que la moitié la moins vue des vidéos YouTube. La consommation vient bien plus de l’activité (y compris toute l’activité réseau entre le datacenter et l’utilisateur) que du stockage « froid » (presque froid dans le cas de YouTube, pour des raisons de temps d’accès même les vidéos jamais vues doivent quand même être sur disque dur, mais sans doute à un seul exemplaire, alors qu’une vidéo populaire est répliquée en des milliers d’exemplaires).

Et même moins… Franchement pour pas mal de vidéos, même le 480 suffit amplement. Je regarde régulièrement des vidéos du festival de Montreux par exemple, y a pas spécialement besoin d’une super qualité vidéo pour les apprécier, c’est essentiellement le son qui compte.

Du coup j’utilise l’extension Firefox « Enhancer for YouTube » pour que par défaut je sois en 240p sur le mini lecteur et 480p en plein écran. Et les quelques fois où ça suffit pas, j’augmente manuellement.

Pas tout a fait. L’UE va interdire les TV dépassant un certain niveau de consommation électrique. Ça exclus d’office la plupart des modèles 8k actuels, mais ça n’interdit pas pour autant le 8k, ceux qui arrivent à faire du 8k en restant sous le seuil de consommation autorisé peuvent le faire.

1 « J'aime »

Je suis tout à fait d’accord avec tes arguments, mais cela ne change rien dans mon cas, ou d’autre cas, avec AMD, cela ne change rien non plus, après 8-9 ans, je change tout car souvent, les nouveaux GPU sont sur un nouveau PCI express, la ram n’est plus la même,il y’a de nouvelle techno (les m2 par exemple pour parler de quelque chose de « récent ») etc etc.

Au finale, ils sont tous à blamer ? Je ne pense pas non plus, parfois il n’y a pas le choix, parfois ils ne font pas d’effort, le resultat est le même au finale.

Il y a toujours le choix, quand on voit le nombre de changements opérés par Intel, on voit bien que c’est essentiellement le marketing qui orienté la politique des nouveaux produits.

Quand on voit à quel point les machines sont mal exploitées, c’est effarant.
Seulement par paresse, et recherche du profit absolu on a perdu la notion du faire bien, abouti, réfléchi. C’est plus simple de prendre un serveur plus costaud, un nouveau GPU… les cartels sont là pour veiller à ce qu’on continue en ce sens (la croissance illimité).

Totalement d’accord, mais là, c’est dû côté du soft qu’il y a pour moi la plus grande paresse.
Quand on voit comment tournaient certains jeux ou programme il y a 15 ans, avec peu de puissance, et aujourd’hui ces mêmes programmes avec peu d’amélioration et des machines de guerre comparée aux anciennes, sans pour autant avoir un résultat « correct », ont ce dit bien qu’il y a aucune/peu volonté de la part de pratiquement chaque acteur en informatique de faire du moyen long terme.

1 « J'aime »