Citation :
Titprem a écrit a écrit :
Toi non, mais moi oui. 
|
|
Ca regarde que toi.
Citation :
Citation :
Le problème, c'est que à 100HZ tu perds énormément en piqué par rapport au 85HZ et au 75HZ. Et ça, ça fatigue la vue de maniere certaine. Des deux maux (Flou/Clignotement), il faut faire un compromis au moins pénible.
|
Toi tu te places dans le cas particulier d'un moniteur donné qui est devient flou quand tu passes de 85 à 100 Hz.
|
Non absolument pas.
Déja des moniteurs j'en vois passer un bon paquet tous les ans parce que j'en vends entre autres activités.
Et je teste régulièrement.
Ensuite, j'ai moi même possédé plus d'un moniteur dans ma vie. J'en suis quand même a presque 20 ans d'informatique.
Citation :
La question n'est pas là !
Dans le cas "général", avec un moniteur "parfait" qui offre la même qualité d'image quelle que soit la résolution, il y a un avantage à être en 100 Hz par rapport à 85 Hz, et plus généralement à monter en fréquence de rafraîchissement. Mais evidement à coté de ça, y a du flou qui apparaît, et qu'il faut, en pratique prendre en compte.
|
Oui, mais on vit pas sur le papier. Le moniteur parfait n'existe pas.
En pratique, les moniteurs perdent rapidement leur piqué avec la fréquence qui augmente car les harmoniques sont filtrées.
C'est tout a fait logique aussi sur le papier qu'un moniteur perde son piqué avec la fréquence. Si tu veut une explication plus appronfondie en ce qui concerne les phénomènes mis en jeu, je te la donnerais.
Citation :
Citation :
[quote]Pendant très longtemps, les écrans ont été en 50hz et personne ne semblait s'en plaindre.
J'ai bossé des années sur des écrans a 50HZ. Alors 75Hz c'est le paradis a côté.
|
Il me semblait qu'au contraire, les moniteurs étaient prévus pour fonctionner en 60 Hz, cad 10 Hz de plus que les télé (en 50 Hz), pour justement atténuer le scintillement... 
|
[/quote]
Non, le 60HZ c'est la norme américaine. Il y a 10 ans, la plupart des ordinateurs vendus en France suivaient le standard télé (Pas le PC, je sait, mais le PC d'il y a 10 ans était une merde immonde).
Et tous ces ordinateurs produisaient une image en 50HZ en europe et a 60HZ aux USA. La raison, c'est que les standards Pal et Secam sont en 50HZ et que le standard NTSC américain est a 60HZ.
C'était le cas des Amiga, Atari ST, C64, Atari XL, Thomson MO et TO, Amstrad et de beaucoup d'autres.
Citation :
Citation :
C'est certain que 85HZ ou 100HZ c'est mieux. Mais personellement, le manque de piqué fatigue ma vue nettement plus que le très très très leger clignotement résiduel a 75HZ.
Peut être que la rémanence des luminophores de l'écran n'est pas la même sur tous les tubes.
En tout état de cause, il fut une époque ou je pensait comme toi. Psychologiquement, l'idée de descendre en dessous de 85HZ ne me plaisait pas. Et puis j'ai essayé a 75HZ et j'ai vu que ma vue fatiguait nettement moins que a 85HZ a cause du piqué meilleur, j'avais moins de mal a lire.
|
Dans le cas précis de ton moniteur peut-être. Mais tu ne peux pas généraliser à tous les moniteurs existants. Actuellement je suis en 85 Hz et non en 100 Hz (alors que je pourrais largement) tout simplement pasqu'à 100 Hz l'image est plus floue, à cause de ma carte graphique et de mon câble. Dès que j'aurais une carte graphique et un câble du niveau de mon moniteur, je t'assure que je passerai en 100 Hz.
|
Non, c'est pas dans le cas précis de mon moniteur mais dans celui de tous les moniteurs.
J'en vois passer assez pour le savoir et l'avoir testé sur beaucoup de moniteurs. Et de plus, le fait que tous sont touchés est normal et démontrable mathématiquement.
Et bien ecoute, passe en 100HZ quand tu aura ton cable. Tu constatera par toi même la perte de piqué (Ou alors, c'est que tu ne l'exploite pas dans une définition qui lui correspond).
Le fait de changer de CG et de cable par des meilleurs permet d'augmenter la bande passante et diminuer la déformation du signal. Cela permet de gagner un peu. Mais en aucun cas, cela ne supprime le phénomène. Ca le retarde.
Citation :
Citation :
Personellement, comme je reste très longtemps devant les écrans, j'ai les yeux assez sensibles. Des qu'un écran est fatiguant pour les yeux, je le sent tout de suite. Il n'y a pas photo.
|
Moi de même. Mais quand j'étais plus jeune, je ne trouverai rien à redire aux malheureux 50 Hz de ma télé. Faut avoir la possibilité de comparer pour pouvoir sentir une différence. Et certaines personnes n'ont pas ces points de comparaison, et peuvent se satisfaire d'un 60 Hz sans problème.
|
Enfin, le 60HZ, je ne m'en satisfait pas. Mais a 85Hz, c'est parfait. A 75HZ, on perçoit encore un très très très leger clignotement qui devient quasiment invisible avec un contraste règlé comme il faut.
Citation :
Citation :
Pour préciser plus avant, le RAMDAC est le plus souvent intégré dans le CHIP graphique donc il dépends du constructeur du chip, c'est a dire ATI ou NVIDIA.
Les Ramdacs de ces cartes ne sont intrinsèquement pas très soignés. Même sur les meilleures cartes, c'est bof-bof comparé aux matrox.
De plus, beaucoup de fabricants de cartes mettent des filtres en sortie qui détruisent le piqué (Obscures raisons).
Il suffit parfois de les supprimer pour donner une meilleure qualité. Mais bon, on achète pas une carte pour dessouder des composants.
|
Le résultat en sortie est fonction des composants de la carte, qui ne sont pas fabriqués par le constructeur du chip graphique. Donc ça me paraît périlleux d'accuser tel ou tel fondeur. (Enfin à ce niveau, j'ai quelques lacune sur le Ramdac, que je serais heureux de combler, cf à la fin. )
|
Sur les cartes graphiques actuelles, tu notera qu'a part le chip il y a très peu de composants.
Beaucoup de constructeurs de cartes suivent le design de référence du fondeur de la puce.
Et particulièrement entre les sorties du Ramdac et le connecteur vidéo, il y a en general très très peu de composants. Pour ainsi dire pas du tout car tout le travail de mise en forme du signal est fait par le chip.
Mais tu as raison sur un point : Certains constructeurs de cartes qui mettent des filtres en sortie. Mais si les sorties sont de qualité, le reste dépends beaucoup du ramdac. Quelle qualité de signal est il capable de sortir.
Et apparement, le Ramdac ATI est en dessous de celui de Matrox.
Citation :
D'ailleurs il me semble avoir entendu parler en bien de l'affichage des cartes BBA.
|
Je n'ai pas d'infos particulières la dessus. Je n'ai encore jamais testé de carte BBA. Ils font de l'ATI apparement.
Je ne peut pas te dire précisément n'ayant pas testé.
Tout ce que je peut dire, c'est que si le chip est ATI, ça reste de l'ATI même si il y a des grosses différences possibles en fonction du montage des composants de sortie.
Si tu as un grand écran ( > 1280x1024 ), il vaut mieux du matrox.
Je sait, c'est pas les cartes idéales pour le jeu. Ca me prends la tête aussi.
A part la parhélia qui est nettement plus rapide mais hors de prix (Et que je n'ai pas testé encore).
Pour l'instant, la seule solution que j'ai trouvé, c'est d'avoir deux configs.
Citation :
Et pour les câbles, faut préciser qu'il existe plusieurs gamme de qualité au sein d'un même type de câble (et notamment les câble BNC), qui n'offrent pas toutes la même qualité bien évidement.
|
Ca oui. C'est clair que suivant les cables, comme tu le dis même en cable BNC, c'est pas la même chose.
Car la façon dont le cable et les connecteurs sont faits imfluence le signal.
Citation :
Sinon, je cherche des informations sur le ramdac, et notamment la façon dont est construite la table des couleurs lors de la conversion numérique -> analogique du codage des couleurs. T'aurais pas des indications sur le sujet ? 
|
J'ai quelques infos sur le sujet, mais ça dépends de ce que tu cherches.
On en parlera demain car ce soir, il est tard.
Bye