Quel est votre avis sur le choix d’écran pc?

Comment choisir le meilleur écran pc ?

1 « J'aime »

Pour moi le meilleur écran actuellement est le LG 32GK850G :
31.5" 2560x1440 165 Hz G-Sync dalle VA plate correcte, sans gros défaut – pas de fuite de lumière ou de glow, temps de réponse & overdrive très bons (parfait à 120 Hz), couverture sRGB correcte suffisante pour de la retouche photo ou montage vidéo casual. Certes c’est pas du 4K, mais justement, au moins les jeux tournent tous à 120 fps+ avec une bonne carte graphique, et le dot pitch est sympa : c’est équivalent au pitch d’un 24" Full-HD, juste en bien plus grand : top pour “bosser” aussi.

Merci pour ton retour Zetmor

Effectivement, chacun aura sa préférence selon son utilisation et grâce à ce type de commentaires les lecteurs pourront avoir encore plus de choix lors de leurs recherches.

Les écrans de télévision ne peuvent il pas convenir plutôt qu’un moniteur ? Avec leur taille élevé ça pourrait être bien pour les applications nécessitant beaucoup de fenêtres (édition photo, vidéo, musique ou certains programmes scientifiques comme la microscopie) ?
Autre question, pour le multi-écran il faut 2 cartes vidéo ?

Salut @Blues_Blanche,

Désolé pour la réponse tardive, pour faire du multi-écran pas besoin de plusieurs CG, le chipset intégré à ton processeur peut le gérer.

Merci de ta réponse. Mon processeur n’a pas de fonction video (Core 2 duo). Mais ma carte video peut sans doute le faire (rtx2060). Ma configuration est appelée à évoluer.

@Blues_Blanche effectivement tu peux faire du dual screen sans aucun problème :slight_smile:

Super, il faut que je teste ça et me procure un 2e écran. Merci de ta reponse.

Rien de chez Eizo ni NEC ? Pourtant les meilleurs ?
Des dalles parfaitement homogènes, un rétroéclairage au top …
Finition exceptionnelle, service après vente supérieur
Exemple NEC EA271Q, 540€

Des tests très bons tout en étant à peine plus cher.
https://www.prad.de/testberichte/test-nec-ea271q-monitor-beeindruckt-bei-bildqualitaet/

Pour de la bureautique, ça ne va pas. C’est pas fait pour. C’est trop lumineur, ce n’est pas étudié pour le confort de près pendant de longues durées.

Je t’invite à lire l’introduction de l’article et notamment consulter :point_right:t3: nos critères de sélection.

Un bien beau bébé :wink:

Mais 43" c’est une tv, c’est plus un écran PC :crazy_face:

Tu es a quelle distance de l’écran ?

tiens je serais curieux de voir si quelqu’un a déjà utilisé un projecteur plutôt qu’un écran, évidement 2000 lumen à leds il en éxisterait en 4 k parait 'il

un core2duo en 2020 avec une carte graphique top…cherchez l’erreur!

3 « J'aime »

Y a pas d’erreur, ça fonctionne très bien et ça permet de changer la carte graphique en attendant de changer le reste. Si tu veux savoir le 1er et 2e Tombe raider fonctionnait super bien par exemple avec des images superbes. La limite c’était la mémoire vive. Depuis je suis passé au Rizen 3 :wink:
Mais ma configuration a tenue 1 an 1/2 pour répondre à mes besoins :stuck_out_tongue:

un dualcore chez intel n’est pas forcément moins bon qu’un quad cores, il y a aussi la vitesse, limitée évidement sur un nettop, mais sur une tour on s’en moque , le proc peut bien bouffer 200 watts a près de 4 gigahertz voire consommer plus.
En parlant de Tomb Raider j’ai vu sur forum un nouveau système pour le jouer sous linux et ça dépote!
Ca avec avec l’émulation d’Androïd le fichu pingouin bouffe tout ce qui passe devant lui

Sauf que de plus en plus de jeux demandent obligatoirement un quad core au minimum, et ne parlons même pas des instructions non gérées par les cpu’s trop anciens…donc si on est gamer sur jeux récents, on peut oublier le dual core ^^

1 « J'aime »

Ben non, parce que la conso c’est une chose, mais l’échauffement en est une autre …

Un CPU qui consomme 200 Watts, il va en sortir des watts de « chauffage » et faut les extraire et ce n’est pas une mince affaire (et la conso, c’est bien beau mais il faut l’alimenter aussi le CPU et ça en fait des ampères) … Au point que ça pose parfois des problèmes mettant en péril une architecture (cf le Pentium 4).