HD ou pas ?

Bonjour bonjour,

Voilà j’aurai une question :

Je possède une carte GTX 275 accompagné d’un Flatron 2353 de chez LG, les deux étant reliés en HD. Mais voilà, je ne vois pas de différence entre le branchement DVI et le HD.

Faut il régler une option pour que tout soit en 720, 1080 dpi ? Alors qu’avec une Xbox, en changeant les DPI, la différence est nette.

Tu a mis la résolution 1920*1080 sur la CG ?

Aucune différence entre un port Hdmi et DVI ?

Je pensais que connecter un écran (HD lui aussi) et sa carte via HDMI aurait un meilleur rendu.

Et oui j’ai confondu avec les “p” tout court.

le HDMI 1.3 te permet lui de passer du Flux video en HD ainsi que l’audio le DVI lui permet n’importe quelle résolution sans le son .

Ce qui signifie donc que je ne joue pas en HD ?

Car si je relie une Xbox 360 à mon écran via HDMI, dans les options je peux régler les “p”.

Si vous pouvez m’éclaircir …

Bien résumé.

Dans tous les cas non tu ne verras pas de différence entre le DVI et le HDMI, ce sera du 1920x1080 dans les 2 cas si tout est bien réglé. Le HDMI est plutôt réservé pour les appareils de salon genre console et lecteur BluRay, cette entrée bénéficiant souvent de traitements vidéos particuliers au niveau de l’écran, ces traitements pouvant dégrader la qualité de l’affichage sous Windows

Merci pour vos réponses, je connais bien la différence à présent. Sans quoi oui, j’ai bien réglé mon écran en 1920 * 1080.

Ah bon ?!? :heink:
Et comment donnes-tu la résolution d’un écran, ou celle d’un scanner ?? :whistle:

Bon sinon, Imbalance, comme dit plus haut, il est normal que tu ne vois pas de différence entre HDMI et DVI puisque ce sont les mêmes signaux qui transitent ; c’est 100 % identique. :oui:
Edité le 23/03/2010 à 00:51

Le dpi est une unité qui sert à mesurer la résolution, c’est à dire le nombre de points/pixels par unité de longueur (DPI = Dotch Per Inch, Points Par Pouce ou PPP en français)
C’est utilisé pour tout système graphique impliquant l’acquisition ou la restitution d’une image sous forme de points (scanner, imprimante, écran… y compris souris en rapportant le déplacement linéaire à une distance en terme de pixels). Sur les écrans ça donne la finesse des pixels (souvent 75DPI par défaut sur les vieux écrans cathodiques mais c’est très variable), c’est pas mal utilisé dans les logiciels fonctionnant en WYSIWYG (PAO, image…). Les fichiers d’image (JPEG…) comporte une information de résolution en DPI que tu peux modifier dans des logiciels comme Photoshop par ex., et si la résolution de ton écran en DPI est correctement renseignée le logiciel peut t’afficher la document/image à la taille réelle tel qu’il sera sur papier (c’est ça le WYSIWIG)
Edité le 23/03/2010 à 11:41

Je remonte un peu le topic.

Dans le panneau de config Nvidia, j’ai remarqué deux résolutions possibles : la native 19201080, et la recommandée qui est 19201080*1080p.

Quelle est la différence ? Car de ce que vous avez dit, si j’ai bien comprit, je suis déjà en HD, puisque je suis en 1920*1080.

Fait plus étrange, lorsque j’active cette résolution, je dois mettre le niveau des noirs au plus bas, sinon j’ai un voile blanc …

Salut !

Aucune différence, 1920x1080 = 1080p
En fait, la différence entre par exemple 1080p et 1080i est que le 1080p correspond à 1080 lignes horizontales et 1080i correspond à 1080 lignes verticales. En gros le 1080p correspond à du 1920x1080, alors que du 1080i correspond à du 1080x720.

Pas forcément, 1920x1080 ça peut être du 1080i. :wink:

:non: 1080p comme 1080i ce sont bien 1080 lignes horizontales.

La différence c’est qu’en 1080p les 1080 lignes de chaque image sont affichées “en une seule fois” les unes à la suite des autres.
Alors qu’en 1080i les 1080 lignes de chaque image sont affichées “en deux fois”, d’abord les lignes impaires les unes à la suite des autres, puis les lignes paires de la même façon.

1080p = affichage progressif (progressiv),
1080i = affichage entrelacé (interlaced).
Edité le 04/04/2010 à 02:11