Attention ne mélange pas. Pour simplifier il existe 2 types de prises : VGA et DVI. Ne pas confondre avec les résolutions (WSXGA+, soit 1680x1050 pixels, ou d’autres).
Mais pour répondre à ta première question il nous faudrait savoir quelle est ta carte graphique.
ma carte graphique est une EAH3870TOP/G/HTDI/512m/256bit/851MHZ/ddr4…mémoire de l’horloge 2.28GHz ect 2 prises DVI 2 adapteurs (vga et hdmi). HDCP
c’est pareil que la radeonHD3870 mais booster ou overcloaker
WSXGA c’est seulement une résolution que ma prise DVI-I peut afficher?
DVI c’est HD?
le T220 est HD?
4.HDCP c’est quoi
5.si T220 est HD es ce-que la qualité de mes video par exemple sur le streaming,youtube,dailymotion…ect:640x480 800x600 1280x768(qui n’utilise pas une résolution hd) vont rester aussi belle que sur un moniteur vga car, je crois que les qualités vidéos sur le net ou sur la télévision utilise 640ligne et le hd 720p minimum donc il va y avoir des ligne vide ou pas rempli ou flou ou quelque chose du genre…(va falloir que je visualise des vidéos HD uniquement?
6.j’ai entendu dire que ma carte graphique donnait une résolution maximal de 1600x1200 avec par exemple:call of duty 4… enthusiast.hardocp.com…
il y a une possibilité d’augmenter cette résolution a celle du T220:1680x1050 pour les jeux?
merci de prendre le temps de lire et répondre a mes question ^^
Oui et non. En fait la prise n’a rien a voir avec la résolution maximale affichable. C’est la puissance de la carte graphique qui détermine cette donnée.
Oui et non encore. Il faut arrêter de croire ces markéteux qui essayent de nous faire gober que la HD cay le plus mieux. La prise HD de référence s’appelle le HDMI (c’est celle que l’on trouve sur les téléviseurs HD). Mais une carte graphique dotée d’une “simple” prise DVI peut parfois monter bien plus haut en résolution que ce que pourrait afficher une TV HD. Et il existe des adaptateurs DVI vers HDMI.
Si on suit le discours des markéteux qui considèrent que pour qu’un écran soit HD il doit afficher du 1920 x 1080 pixels, non.
Personnellement j’ai un vieux PC avec un écran 17" (1280x1024) et maintenant un neuf avec un écran 20" (le Samsung T200, 1680x1050). Eh bien mes films en DivX sont bien plus beaux sur le plus récent, et pourtant la définition de l’écran est plus grande. Cela est du à la carte graphique, bien plus puissante, qui effectue un traitement sur les vidéos : l’upscaling.
1680x1050 : 1 764 000 pixels.
1600x1200 : 1 920 000 pixels.
Un écran en résolution 1680x1050 affiche 8 % de pixels en moins qu’un homologue en 1600x1200. Donc tu n’utiliseras même pas la résolution maximale de ta carte graphique.
Edité le 09/10/2008 à 09:15
et que pense tu de ma carte graphic:eah3870top je px afficher plus haut? et comment? dans tout les cas je verrai quand j’aurai l’écran
en passant ma carte peut afficher 1920x1080 donc oui elle peut afficher du 1080p mais pour le upscaling j'espere qu'elle soye assez puissante au pire j'install un lecteur blu-ray et des jeux HD :P
No soucy, inutile de te ruiner dans un lecteur blu ray (et au passage, les jeux HD çà n’existe pas ! La HD a été inventée par les markéteux pour vendre des TV, mais les jeux peuvent tourner à n’importe quelle résolution, la seule limite étant celle de l’écran).
Voila je l’ai reçu, j’ai fais la correction RTA et celle des gamma ! Rien d’autre a signaler ? Sinon j’aimerai savoir, c’est un écran 16:9, cela signifie t’il la résolution 1600/900 ? Car je vois que je peux aller en 1600/1024 dans les jeux, je met en quoi pour que sa soit plus mieux (français sa ? ^^) Par exemple, call of duty 4, il me dit 16:9 oui ou non, je met oui forcement, mais est ce que le faite de mettre en 1600/1024 et non en 1600/900 contre cette option ?
Le samsung T220 c’est du 16:10 (22" Wide ) et non du 16:9 , sa résolution native est de 1680x1050, donc dans Cod 4 tu choisis 16:10 et 1680x1050, faut se renseigner avant d’acheter .
Edité le 11/10/2008 à 12:34