mareek Et de 3 \o/ | Comment ai-je pu louper un tel topikatroll ?
bon, alors commeçon par le commencement
PlayTime a écrit :
De plus, le dernier tomb raider, pourtant compilé en cg ( language graphique de nvidia ), a aussi tourné à l'avantage des ati mais il est nécessaire d'attendre la sortie d'autre jeux directx9 et peut-être d'aquamark2003 pr en tiré de vrai conclusions ( en clair, savoir si oui ou non, les cartes nvidia sont vraiment distancé clairement sur les jeux directx9 )
|
2 jeux (dont HL2, c'est quand même pas n'importe quoi), pleins de benchs plus ou moins connus (3DMark03, shaderMark, les benchs utilisés par Mark dans le tes de la GFFX5600Ultra "2" ), les démos nVidia qui tournent mieux sur les cartes Ati malgré le passage par un wrapper, les dires des programmeurs, etc ... ça te suffit pas pour dire que les GFFX sont à la rue pour ce qui est des fonctionnalités DX9 ? moi si
nathan a écrit :
peut etre nvidia pourra t il corriger le tir avec les fx5950
mais vu le biveau d'integration des shader ds une carte ca me semble difficile
vivement les le gefx6000
|
Ou vivement la R9700Pro
Oups, ça fait un an qu'elle est sortie
nicolas_b a écrit :
Moi ce qui me fait bien rire c'est ça:
GD: Why DirectX9 over OpenGL 2.0?
Gabe: OpenGL 2.0 isn't as mature as DX9.
Valve a depuis toujours mené une politique de soft propriétaire, ils sont completement opposés au portage de leur jeu sous linux, contrairement à des jeux comme quake3 qui a été une veritable démonstration et reference technologique. Quake3 tirait parti de toutes les cartes graphiques, et était multiplateforme.
|
OpenGL 2.0 n'est encore qu'à l'état de prototype alors que DX9 est officiellement sorti depuis plus de 6 mois. La dernière version officielle d'OpenGL est la 1.4 (bien que la 1.5 devrait sortir sous peu) et elle introduit juste les shaders alors qu'ils sont présents dans DirectX depuis la version 8 (sortie au printemps 2001). Si tu veux un avis sur la guerre OpenGL Vs DirectX, voici celui de John Carmack :
http://stud.fh-wedel.de/~ia5148/opengl/carmack.html
Ernestor a écrit :
Et pour info, TOUS les gros moteurs 3D qui vont sortir (HL 2, Doom3, Stalker ...) ont un code-path specifique aux FX. Tu crois vraiment que les types qui developpent ces moteurs sont des tanches en programmation ou des pro-ATIs en puissance ?
|
Oui, tous les programmeurs sont des vendus à Ati, c'est bien connu
nicolas_b a écrit :
Je viens d'aller voir ton site en lien plus haut:
"A noter que Valve insiste particulièrement sur le fait que les drivers Detonator 50 drivers ne doivent en aucun ca être utilisés pour les benchmarks : ceux-ci désactivent par exemple le brouillard dans certains niveaux dans le seul but d'améliorer les performances ou bien détectent quand on fait des captures d'écran pour produire de meilleurs images que ce qu'on voit réellement à l'écran. Je trouve cela inadmissible."
Heu ... Ca pue le hoax : ))
1 - j'ai jamais vu de jeux tourner plus lentement quand le brouillard est activé. 2 - j'aimerais bien voir ça un driver qui détecte les screenshots, et qui augmente la qualité de l'image -- > vraimment n'importe quoi
et puis qu'est ce qu'ils vont inventé d'autres ??? faites attention le driver va faire voler votre pc sur 300 metres ?
Trop ridicule cette campagne anti nvidia...
|
1) achète toi des yeux. Exemple tout ccon: les smoke grenade dans Counter Strike ralentissent drollement le jeu (et là je parle d'un vieux brouillard à l'ancienne).
2) au début du FSAA, les screenshots donnaient des images toutes aliasées. Après maj des drivers, le pb n'existait plus, le FSAA était bien appliqué sur les screenshots. Pour moi, ça serait tout à fait possible d'augmenteer la qualité du rendu pour les screenshots (quand on voit les optimisation faites dans 3DMark03, on se dit que tout est possible).
nicolas_b a écrit :
1)Très bonne explication, pour répondre à ta question, je pense que si nvidia n'a pas collé aux specifications, c'est pour une bonne raison. A mon avis, la carte a du potentiel, mais personne justement veut se prendre la tete à développer des fonctions spécifiques, alors que directx9 tombe comme du pain bénis.
2)C'est d'ailleurs pour ça que je parlais des systèmes d'exploitations, car sous linux directx9 il y a pas.
|
1) Même les démos nVidia tournent mieux sur radeon 9700 et plus, je vois pas qui pourrait tirer les tripes des GFFX si même les ingés de nVidia n'en sont pas capables.
2) les jeux sous linux heuuuuuuuuu..... comme dirait l'autre: "Who cares ?"
_JbM a écrit :
M'enfin venant d'un zealot-pro-nvidia-et-linux, rien d'étonnant
|
pourquoi zealot ?
nicolas_b a écrit :
Non pas du tout, j'ai pas dis que nvidia était parfait. J'ai dis qu'il y a un jeu qui sort qui tourne bien sur 50% des cartes graphiques.
Voila en gros, pour moi c'est pas un jeu performant. Si les développeurs partent dans cette optique la, autant qu'ils abandonnent le pc, pour développer sur xbox. C'est d'ailleurs, ce qu'ils ont du faire.
|
Attention, les résultats donnés sont avec tous les effets graphiques à fond, on peut toujours les désactiver sur les cartes moins puissantes.
nicolas_b a écrit :
Bah ils sont ou tes benchs ? J'ai vu du 3d mark 2003, un bench tomb raider et c'est tout ... Beaucoup de bruit pour pas grand chose.
|
Lis les test de hardware.fr sur les GFFX5600Ultra et 5900, lis aussi les articles de tt-hardware.com à ce sujet.
nicolas_b a écrit :
>> Et pourquoi ce sont les developpeurs qui sont mauvais et pas l'architecture de nVidia qui serait mauvaise ? C'est possible que ça soit l'archi, soit les dev, soit les deux qui soient mauvais.
|
quand t'as une brouette, tu pourras faire tout ce que tu veux pour qu'elle fonce comme une F1, ça restera une brouette.| Pour les GFFX c'est pareil.
nicolas_b a écrit :
Non je ne suis pas de mauvaise foie, un moteur 3d ça sert à gerer le rendu, optimiser des fonctions de l'api qui justement sont trop lentes etc ...
En gros, quand tu développes un moteur 3d, tu remplaces/optimises regulierement des fonctions proposés par l'api. Toi ce que tu me dis c'est que le moteur 3d est placé sur l'api, et que l'api on y touche plus. Voila en gros, pourquoi je te réponds que ton moteur 3d vaut rien, il est optimisé pour les cartes ati, c'est bien. Mais bon qui va utiliser ça, si 50% des cartes du marché se trainent avec ...
Et bein excuse moi, mais j'ai des doutes sur l'avenir de ce moteur, et sur ces performances.
|
t'as l'air hyper fort en developpement toi
ça serait pas toi qui a dit:
"I can fix the compiler to optimize the code better."
nicolas_b a écrit :
Et bein moi, je m'en fous des fx, j'en ai pas : )) Je me dis juste que c'est une carte qui s'est fait brisé par la presse, et que pour le moment personne ne connait son potentiel.
Je me rappelle encore il y a 4 ans, tout la presse annonçait la rage fury 128 comme "LA CARTE" qui etait la plus puissante. Resultat, la tnt2 l'a completement explosé au bout d'1 ans, et est devenu une véritable reférence grace au hardware & lightning.
Je m'en souviens car à l'époque j'avais pris une ati 128, le rendu etait niquel , ahhh c'était jolie il y avait l'antialising, et des effets puissants, mais qu'est ce que ça ramait ....
|
nicolas_b a écrit :
Oui car ça me fait marrer de deranger les moules pendant leurs séances masturbatoires 3d mark 2003.
|
nicolas_b a écrit :
aie aie ... que puis je faire pour toi ? La première génération de transform & lighting a été utilisé sur les tnt2, la seconde sur les geforce2 qui l'utilisait directement en hardware.
|
nicolas_b a écrit :
C'est pas que ça prete à confusion, la première génération de carte graphique à supporter le transform & lightning était les tnt2. Essaie de lancer un jeu t&l software avec une ati 128 pour voir
|
Qu'est-ce que je regrette de pas avoir pu suivre ça en direct
dus06 c'était celui d'hier (et il a récidivé:D)
nicolas_b a écrit :
Je sais pas qui sont les boulets ici, mais il y en a une sacré dose... http://www.google.fr/search?q=cach [...] r&ie=UTF-8
The main add-on of GeForce 256 is the Transform and Lighting [More Info..] in GPU and Cube Environment Mapping. Transform and Lighting was done in CPU with TNT2. However if using GeForce, the load of these processes will be in GPU, not CPU. It frees up more CPU load for other processes. Cube Environment Mapping can provide better reflection and lighting of an object.
|
En plus d'être un as du developpement, tu parle anglais courament, respect
Au moins il reste poli
t'es lourd avec tes trolls
nicolas_b a écrit :
Pour le moment , je vois que du vent. Valve a publié un benchmark, et c'est Ati qui leur paye leur campagne de pub.
En gros, c'est comme si tu demandais à nvidia de faire des benchs d'ati.
Perso, je me ferais une opinion que quand je verrais la différence de rendu des graphismes, la différence de vitesse , etc ...
|
Ah bah non, il est reviendu
Je ne sais pas si tu as remarqué, mais au lancement d'unreal tournament, tu as un splash screen avec un gros logo nVidia en plein milieu ("nViddia the way it's meant to be played" ) et pourtant les Radeons tournent bien mieux que les GefroceFx sur ce jeu. Preuve s'il en est que les accord commerciaux n'ont rien à voir avec une quelconque optimisation au niveau technique.
yoyo3d a écrit :
Je n'avais pas ri autant depuis la voodoo5 de 3dfx. Ah on sent effectivement que Nvidia a embauché des ingénieurs de chez 3dfx...
|
Pour une fois, c'est pas moi qui le dit
nicolas_b a écrit :
Bof ... Je vais vous dire, ce que j'en pense. Les pixels shaders 2.0, ça joue normalement sur les perfs globales des bestioles que ça soient l'ati 9800 pro ou la geforce 5900 ultra.
Hors la, ces gentils messieurs de chez valve ils disent qu'en directx 8.1 donc sans les pixels shaders 2, la geforce fx5900 ultra est aussi rapide qu'une 9600 pro en directx9 )
Il faut arreter de prendre les gens pour des cons, tout les jeux actuels sont directx 8.1, et tout le monde voit bien la différence de performances dans les jeux actuels notamment en fps entre une fx5900ultra et une 9600 pro.
Alors d'ici, à nous faire croire que déjà la 9600 pro qui est pas une fleche en directx8.1 serait encore plus rapide en directx9 qu'une gfx5900 ultra en directx 8.1, il faut pas abusé ... Soit ils ont touchés une somme bien grasse pour raconter des conneries, soit c'est leur moteur qui est completement flingué : ))
Je trouve ça ridicule quand il y en ai encore qui prennent pour du pains bénis ce genre d'annonces commerciales.
|
Les jeux actuels sont plutot DX7 pour ce qui est des fonctionnalités utilisées. En effet, peu de jeux font appels aux shaders de DX8 (et encore moins à ceux de DX8.1) et quand ils le font, c'est de manière anecdotique (eau qui bouge, petit bump mapping dans un coin ...). Bref HL2 et le dernier tomb raider font parti des premiers jeux à faire massivement appel aux shaders.
Tu devrais avoir honte de lancer des trolls pareil mais quand même.
ça faisait longtemps qu'on en avait pas eu un aussi beau
Mais quel boolay !
désolé pour ce long post, mais ça me faisait trop mal d'avoir loupé un tel topic
---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
|