Gagné !!! J’ai toujours rêvé d’être un terminator ! ça se fête !!! :pt1cable: :ane:
Plus sérieusement, on vois sur certains angles une (très?) légère différence. J’ai remarqué la différence en m’asseyant sur mon fauteuil.
En fait, même en sachant où est la différence (ce qui n’est pas donné), on ne la vois pas les trois quart du temps, jusqu’à ce qu’elle devienne flagrante et évidente (en la cherchant ! hein !). Une sorte d’effet d’optique je pense. C’est comme en cours d’svt quand on observait une photo d’un cratère. Certains croyaient que c’était un trou, d’autres une surélévation de terre. Je pense que c’est le même phénomène. En alternant ces deux “visions” on peut faire apparaître ou disparaitre la différence de couleur.
Donc selon moi, à moins d’être un énorme puriste, quelqu’un de très exigent ou un geek dans toute sa splendeur (qui aime bien quand on augmente la puissance quantitative (enfin vous avez compris… 2Go=>4Go, 32=>64bits, fréquences…)), les cartes graphiques 64 bits ne sont guère utiles. (désolé pour la phrase incompréhensible).
[quote="louinou"]
Les images sur le web que vous nous montré sont en 24 bits... :riva:
[/quote]
Tu casse tout là ! lol
Donc 64 bits=> exit (encore plus)
Edité le 15/06/2008 à 20:50
Bah avec des gris moyens, la difference se voit nettement. Bien plus qu’avec le fond limite noir :neutre:
Un fond gris 128 128 128 ( red bleu green ) et une bande ( 128 128 127 ) se voit
Mais bon, faut pas non plus ergoter :neutre:
Bref le 64 Bit, bof: perte de perf pour pas grand chose.
Ok, je viens de tester: je vois nettement la difference sur mes deux écrans CRT :neutre:
ENfin, tout ça pour dire: faut pas non plus chipoter: en pleins jeu ou en plein film, les images défillent assez vite, pas le temps de prendre son temps pour chercher la difference de couleur sur ce mur :fou:
Ceci dit, je ne vois toujours pas de différence :neutre:
Par contre, il me semble qu’il y a un problème:
L’encodage des couleurs sur 24 bits, ça donne 8 bits par cannal (RVB), en revanche en 32 bits? :heink:
10.666666667 bits par canal? :nexath²
Ou alors, plus simplement, toujours 8 bits par canal, mais avec une couche alpha (codée elle aussi sur 8 bits), plutôt, non?
Sinon, il me semble que dans certains cas (HDR dans les jeux notamment), les couleurs sont codées en 128bits. (32 bits par canal couleur + 32 bits pour la couche alpha), ce qui explique en partie la gourmandise de ce processus :jap:
Edité le 15/06/2008 à 22:11
En 32 bitsl c’est 24 bits pour les couleurs et 8 bits pour la transparence.
Ca fait quand même 16,7 millions de nuances.
Perso je ne vois pas de différence sur son image, mais si on a un bon écran c’est normal (genre DELL 24", dalle S-PVA :miam:). S’il a un écran LCD pourri qui ne peut retranscrire que 262000 nuances max c’est normal qu’il voit une différence, mais c’est l’écran qu’il faut changer
Edité le 16/06/2008 à 10:18