Sortie HDMI plus floue que sortie VGA

Bonjour

Je suppose que c’est du multimedia et pas de la video ma question ?

Comme c’est mon fils qui a un souci alors que lui travaille et moi plus je tente de l’aider.
Probleme de “configuration” HDMI ??? Ou bien cable ou contacts ?
Il vient d’acheter une CG Ati 4870. Il sort avec sur une TV 42 ’ HD Ready.
Avec son ancienne carte il n’avait pas de sortie HDMI. La nouvelle oui.
Il me dit que lorsqu’il sort sur cette TV en VGA c’est tres net. Lorsqu’il sort en HDMI c’est un peu flou. Il cherche a trouver pourquoi. Il dit que ça n’est pas logique !
Je ne peux pas l’aider car mes TV et moniteurs sont toujours cathodiques.
HDMI moi pas connaitre en pratique ! Que doit il regler afin que la sortie HDMI soit aussi nette que la sortie VGA ?
Merci pour lui.

support.amd.com…
si cela peu l’aidez :wink:

Salut
Mon fils a utilise ton lien et aussi Power strip. Et ça n’est pas un newbee car il a deja bati 4 PC lui meme et il a demarre il y a 20 ans sur un Atari…sans oublier l’Amiga.
il a fait pas mal d’essais ce jour et il semblerait…ce qui est impossible, que sa nouvelle CG Radeon 4870 tres recente donc et de bon niveau technique lui pose des problemes que ne posait pas son ancienne carte vieille de presque 3 ans.

Voici ce qu’il dit. Ah oui ! Il est sous Vista que je ne connais pas du tout. Je verrai ça avec Seven…(

y a un soucis effectivement tu ne pense pas que cela viendrais du hardware plutot que du software

1- La définition de la dalle de son téléviseur ne doit pas être 1368x720 mais plus probablement 1366x768 ; ce serait donc un téléviseur de type “HD-Ready”.

2- Ce n’est certainement pas du 30 Hz entrelacé mais plutôt du 60 Hz entrelacé, ce qui équivaudrait en quelque sorte à du 30 Hz.

3- Puisque c’est un téléviseur “HD-Ready” tu ne peux afficher du 1080p. En revanche tu peux afficher du 1080i ou du 720p.

Tout ceci est donc tout à fait normal… :neutre:

Il y a plus grave que ça. En sortie VGA vers son moniteur cathodique sa CG n’offre plus que 75 hz et plus du tout 100 Hz comme avec sa vieille Nvidia. Ca c’est mauvais signe.
Il veut tout simplement avec sa nouvelle Ati obtenir exactement le meme resultat qu’avec sa vieille NVidia de 3 ans ( HS).
Il a ressorti son adaptateur DVI VGA pour attaquer la TV en sortie DVI et c’est pareil. Flou.
La sortie SVGA n’est pas floue. La sortie DVI ( avec un convertisseur pour entrer en VGA car sa TV n’a pas de DVI) et HDMI donnent du flou ( leger mais c’est inadmissible). Et il ne peut pas monter en frequence au dessus de 30 vers sa TV.
Bref ! En vga vers moniteur analogique pas plus de 75. En DVI et HDMI vers la TV pas plus de 30. C’est anormal.
Je pense a un defaut du ramdac ?

Il va attendre mardi pour contacter son assembleur afin de savoir comment faire pour contacter d’abord l’assistance Sapphire. Sur leur site c’est seulement Hongkong ou les USA. Il veut resoudre “scientifiquement”.
S’il y a un probleme hardware sur cette carte eh bien je lui ai dit que je lui donnerai le complement d’argent nécessaire afin qu’il puisse la faire reprendre contre une NVidia. ( Perso je n’ai jamais eu d’Ati car mon viel ami assembleru et ingenieur electronicien me dit qu’Ati cause plus de “problemes” que NVidia. Et que mon fils aurait du prendre du Asus ou du MSI ! Qui ont une assistance eux.

Contacter Sapphire. Apparemment ça ne doit pas etre facile. Perso je n’achete que du MSI. Mon ami assembleur m’a donné un Tel special pour contacter la hot line MSI reservee au pro. J’ai horreur des assistances par le web. Je n’accepte que par Tel.

Mon fils lui a 160 kms n’a pas pense a ça. la hot line. Personne n’y pense en fait sauf les vieux pépes qui ont connus les vrais SAV de jadis ! Un vrai tech au bout du fil et pas une saloperie de robot ( comme Symantec!)

Mogulus a peut etre raison. Si on ne peut pas afficher plus de 75hz vers un moniteur analogique VGA ou 30 vers une TV numerique c’est grave.

Merci de votre attention et je tiens au courant.

Bonne soiree.

Ben vu que jusqu’ici tout est normal, s’il y a un problème il est évident qu’il ne peut être que “plus grave”… :neutre:

Es-tu certain qu’il a paramétré sa CG correctement ???

Qu’appelles-tu “sortie SVGA” ???

Encore une fois, tout ça me parait normal personnellement, mis à part le flou biensûr.
PS : ce n’est pas un convertisseur mais simplement un adaptateur. Il n’y a pas de conversion au niveau des signaux mais simplement adaptation au niveau du format du connecteur.

Ton vieil ami n’a pas l’air de connaître grand chose dans les CG pour PC… car c’est bonnet blanc et blanc bonnet.

Non, comme je te l’ai déjà expliqué plus haut, avec un téléviseur comme ceuli-ci c’est normal !
Edité le 17/05/2009 à 20:45

Desole de ne pas etre un expert en video. Sinon je ne posterais pas. Je suis plus effica e en debogage de Windows par exemple.
Pour mon fils et moi la sortie VGA ( SVGA ou SVideo) c’est la sortie classique en connecteur Cannon qui sort de la CG et va attaquerle moniteur cathodique… J’ai ça aussi sur mon Atari qui a 16 ans !
Ca porte un autre nom ?

Sur les CG dont il y a 10 ans il y avait la sortie “VGA.”. Et aussi une sortie composite qui celle la allait vers la TV
Ensuite il y a eu, toujours avec la VGA pour le moniteur la sotie Din vers la TV. Sortie non composite
Ensuite il y a eu la sotie DVI pour les moniteurs numeriques. Celui qui a une CG avec une sortie DVI et un ecran cathodique doit mettre un adaptateur.
Et maintenant les sorties HDMI

Ce qui me trouble un peu et tu as mis le doigt dessus c’est differencier els sorties.
1 La sortie habituelle vers le moniteur PC. Elle est VGA et aussi DVI
2 La sortie vers la TV. Elle a ete d’ab ord composite, puis SVideo ( Din 4 broches) et maintenant HDMI

Je laisse le cote le connecteur pour les consoles de jeux. Genre XBox. Ca n’est pas concerne ici.

C’est donc un probleme de "nom " de connecteur qui est incorrect ?

Comment appelle tu la sortie qui, sur mon Atari il y a 25 ans ( et qui marche toujours) sortait de la carte pour aller vers le moniteur N
Pas en 65 millions de couleurs en ce temps la mais en 256. Comment tu appelles donc la sortie machine vers moniteur ?

Bonne soiree et merci pour toutes ces explications

Je ne suis pas non plus un expert en vidéo. On fait chacun ce qu’on peut. :wink:

Il y a aussi maintenant les connecteurs displayport, mais qu’importe ici les types de connecteurs passés et actuels ?
J’avoue ne pas bien comprendre le sens de ton dernier message : quelle est la question exactement ?

Un connecteur “VGA” (nommé aussi “D-sub 15”) n’a rien à voir avec un connecteur “S-vidéo” (aussi appelé “Ushiden”) qui est un connecteur mini-DIN (et non DIN).
Quand au SVGA, c’est un mode vidéo d’après ce que j’en sais et non un connecteur vidéo, d’où ma question précédente.

Mais tout ceci ne résout pas le problème de flou en HDMI.
S’il ne peut passer la sortie de la carte graphique en 1366x768 ou 1360x768 en HDMI mais simplement en 720p ou 1080i, alors il est normal, je pense, que ce soit flou puisque ça ne correspond pas à la définition de la dalle de l’écran.
Il y a donc mise à l’échelle et perte de netteté… :neutre:

PS : un Atari d’il y a 25 ans ne sortait pas en 256 couleurs mais simplement en 16 couleurs parmi une palette de 512 couleurs. :wink:

J’ai oublie pour l’Atari. Je dois confondre avec mon Amiga 1200.

C’est vrai qu’il compare avec son XBox 360 remplacee dernierement par Microsoft pour le dernier modele et qui affiche bien mieux sur la meme TV… Il sort en YUV qui n’est pas plus performant que le HDMI.
C’est tout bizarre tout ça.

Il pense pouvoir fignoler avec les reglages pointus de PowerStrip. Les "defauts " sont tres legers et ça devrait pouvoir s’ameliorer sans que papa donne une rallonge pour changer de CG !
Disons que HDMI les couleurs sont moins contrastees, ont moins de punch et un poil plus floues qu’en sortie “habituelle” dite "sortie TV.

Merci de ton attention et bonne nuit.
Edité le 17/05/2009 à 23:36

Les couleurs peuvent être réglées dans les paramètres de la carte graphique, ainsi que le gamma, la luminosité et le contraste.

Bon. Mon fils a mis un supplement de 50 € pour une 260+ NV et voici l’analyse. NV vs Ati reçue par mail. Réglé donc.

Me voila avec mon 1er bilan de la gtx 260+Gainward overclockée d’origine:

1er constat : 5s pour passer mon moniteur CRT en 100hz en 1024 quand ATI ne m’en proposé que 75 meme apres des heures de bataille lol ? avantage absolu pour NVIDIA-

2eme constat : pour mon ecran HDTV tout n’était pas la faute d’ATI car Nvidia tend a me proposer le meme type d’options de bases/restrictions. ? match nul ATI/NVIDIA

3eme constat : les options de configurations sont tres largement plus nombreuses chez Nvidia : on peut choisir d’utiliser le circuit de mise a l’echelle Nvidia ou du fabricant du moniteur ( ma TVHD n’accepte pas que ce soit les parametres NVIDIA de mise a l’echelle qui soientt activés mais la fonction est presente), reglage plus facile du redimensionnement de l’ecran, modes HDTV bcp plus nombreux etc. Avantage très net Nvidia sur les options de réglages dans les drivers avec une foule d’options absentes dans les drivers ATI

Je dirai qu’avec la même résolution/rafraichissement HDTV que chez ATI l’image sur mon ecran HDTV est meilleure, mais comme c’est tres subjectif et que je suis peut etre partial je ne vais pas l’affirmer catégoriquement et c’est une impression plus qu’une evidence. Je dirais que l’image, sans etre absolument parfaite est meilleure.

Bilan : tout n’était pas de la faute d’ATI et ma TV Samsung a clairement sa part de responsabilité mais les réglages nettement plus poussées chez Nvidia et le manque de souplesse difficilement croyable d’ATI me font sans contexte preférer la Nividia au niveau de la gestion des sorties Videos.

Il ne faut pas non plus se méprendre , je suis tres content qu’ATI existe , sans eux Nvidia vendrait ses cartes 2x plus chères et quand on voit le rapport taille/efficacité dans les jeux dune petite HD4850 si ngle slot ATI , on se dit qu’Nvidia a encore du boulot avec ses cartes monstrueuses et le jeu est quand même la vocation premiere de ces cartes. Mais en tout cas la gestion Nvidia des sorties videos semblent nettement plus souple et aboutie il faut bien le dire

Je ferais quand même un test de jeu ce serait dommage lol

Bises et merci encore
Edité le 20/05/2009 à 19:42

:super:

cool