deux sujets en 1:
1) anti-aliasing. Je ne comprend vraiment pas cette mode! l'AA est sensé méliorer la qualité d'affichage, mais je ne suis pas d'accord:
- à une résolution donnée, OK, l'AA améliore l'image.Et encore, c'est archi discutable, car le prix à payer pour se débarasser du crénelage est un abominable flou sur l'image (en particulier sur les textures). Donc, pour le pauvre gars qui n'a pas les moyens de se payer un bon écran, je comprends : C'est sur que si son 17 pouces plafonne à 1024x768x75Hz, ca peut éventuellement être considéré comme un progrès. Mais s'il n'a pas les moyens de se payer un bon écran, il n'a certainement pas les moyens de se payer une bonne carte graphique. Donc l'AA, c'est bien sur les cartes graphiques bas de gamme
-mais ce qu'il faudrait comparer, c'est la qualité d'image à frame rate équivalent: vaut il mieux jouer en 1600x1200 ou par exemple en 1024x768 AA4x (c'est un exemple, admettons que les frame rate sont à peut pres égaux. corrigez les chiffres si nécessaire, j'ai pas les chiffres, et c'est le principe qui compte)? Ben moi, sans hésiter, je choisis la plus haute résolution: j'élimine le crénelage sans me payer d'effets de flou
Comme tout bon 17 pouces monte en 1600x1200x75Hz, et que en 1600x1200 sur une telle surface, l'image est tellement fine que le crénelage est imperceptible, je ne vois pas ce que vient faire l'AA. pareil sur un 19 pouces (faudra peut etre monter d'un cran la résolution, mais avec les perfs des cartes de gamers actuelles, ca doit passer)
Au pire, je préfère meme quelques fps de moins, tant que le jeu reste jouable (disons environ 45 fps) et monter ma résolution, sans AA, histoire d'avoir une vraie bonne qualité d'image!
Ce qui nous mene à la deuxieme partie du sujet:
2)la qualité d'image en général
on parle de cartes graphiques de la mort qui tuent, qui coutent 300 euros (exemple), et on les compare en regardant le nombre max de fps que l'on obtient dans diverses situations, mais à part pousser la résolution, ces tests sont toujours faits 'a qualité d'image égale et minimale'. depuis peu, on voit apparaitre en fin de tests un petit comparatif sur la dégradation des perfs lorsqu'on active l'anisotropic filtering, ENFIN!
Mais, quand on voit la différence de qualité d'image avec l'aniso (c'est quand meme beaucoup plus bo), je ne comprends pas que tous les tests ne soient pas faits au moins en aniso 4x ou 8x! Ce qui m'intéresse, si je cherche à acheter une carte haut de gamme, se sont ses perfs dans les conditions d'utilisations réelles! Et autant j'en ai rien à faire de tourner à 150 fps (60 me suffisent largement), autant je tiens absolument a avoir une belle image et pas un tas immonde de pixels. donc Aniso obligatoire, AA à banir, mais hautes réslutions rulez. compression de textures: oui si c'est pour utiliser de plus grosses textures, non si c'est pour augmenter le framerate sans augmenter la taille des textures mais en dégradant leur qualité
Il faudrait aussi, meme si c'est subjectif, insister beaucoup plus sur la qualité des effets supportés: Morrowind avec une radeon 8500 ou une bonne Geforce 4MX, il n'y a peut être pas une différence énorme de framerate, mais qu'en est-il de la qualité d'image? C'est bien d'en parler, mais il faudrait peut être un petit paquet de captures d'écran bien choisies, histoire de bien montrer la différence
Donc, à quand des tests 'renversés', ou on regle chaque carte pour du 60 fps (ou 30) et on compare vraiment les différences de qualité d'image obtenue??? hein, Marc? quand?