Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1424 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  6  7  ..  20  21  22  23  24  25
Auteur Sujet :

Les perfs de la Matrox Parhelia

n°2211121
Zeross
Posté le 11-02-2003 à 22:12:38  profilanswer
 

Reprise du message précédent :

Sr16 a écrit :


 
Ok,
 
Tu m'a l'air d'y connaitre pas mal dans le domaine. Tu programme ?


 
Oui, enfin disons que je bricole un peu en OpenGL ;)
 

Citation :

Ce que je me demande, c'est que vu le fait que tout le monde fait un hardware différent question shaders, comment les jeux pouront ils exploiter ces effets ?
 
Ceux ci ne risquent ils pas de se limiter au plus petit dénominateur commun ?


 
C'est effectivement le risque et c'est même au final ce qu'on a pu observer dans les (rares) jeux utilisant les shaders : ils se limitent à l'utilisation des shaders 1.1 apparus avec la GF3. Le seul espoir qu'il reste c'est l'apparition des HLSL (High Level Shading Language) à partir desquels on devrait pouvoir faire abstraction du hardware sous jacent en utilisant des compilateurs. Mais pour l'instant ça reste asse confidentiel comme utilisation : Nvidia a le Cg mais aucun autre fabriquant n'a développé de "profils" adaptés à son hardware car ils ne veulent pas que Nvidia est la mainmise dans ce domaine (et on les comprend), Dx9.0 est censé avoir un HLSL également intégré espèrons que ça améliore les choses mais je ne me suis pas penché sur la question étant traditionnellement plus OpenGL que DirectX. On peut aussi citer GL2 dans ce secteur mais il semble que Nvidia traîne des pieds pour fournir des drivers performants (cf dernier .plan de Carmack), préférant imposer son Cg plutôt que d'aider GL2 à décoller.
 

Citation :

Et vu le nombre de Geforce 4mx qui se sont vendues et qui je crois ne sont même pas des cartes DirectX 8.


 
Oui c'est malheureux cette politique de Nvidia, d'un côté ils font tout pour encourager les développeurs à utiliser leurs dernières technologies en les documentant énormément et en fournissant il faut le reconnaître des drivers de bon niveau mais de l'autre ils restreignent la portée de ces technologies en imposant sur le secteur entrée de gamme des cartes ne les supportant pas :(
 

Citation :

Quand au support du 1.3 pour les pixel shaders, ça ne corresponds pas a ce que supporte le GF4 TI 4600 ?


 
Oui c'est exactement ça
 

Citation :

Pourait tu nous dire quelle carte supporte quoi ? Et dans la pratique ça correspond a quoi commme différence ?


 
GF3 / GF3 Ti : Pixel Shaders 1.1
GF4 Ti / Parhelia / P10 (Wildcat VP) / Xabre : Pixel Shaders 1.3
Radeon 8500 / 9000 / 9100 : Pixel Shaders 1.4
Radeon 9500 /9500 Pro / 9700 / 9700 Pro : Pixel Shaders 2.0
GF FX : Pixel Shaders 2.0+
 
J'ai fait de mémoire et je n'ai pas vérifié mais je pense que c'est correct (même si c'est difficile de suivre vu que les chips sont fréquemment rebaptisés dans la plus grande confusion).  
 
Expliquer dans la pratique à quoi correspondent les différences est plus délicat d'autant que je ne me suis intéressé qu'aux shaders 1.1 (ou 1.3 qui sont fondamentalement très proches) et encore assez récemment d'un point de vue programmation vu que l'extension GL_ARB_fragment_program n'a été approuvée que récemment. Bref je débutte juste et si j'ai une bonne idée de la théorie il me reste encore pas mal de chemin à parcourir en pratique ;)
 
Disons que les différences portent principalement sur la structure du shader et sur le jeu d'instructions. Les pixels shaders 1.1 ou 1.3 sont constitués de 4 adressages de textures (qui peuvent être dépendants) en début de programme et peuvent ensuite compter jusqu'à 8 opérations arithmétiques. Les pixels shaders 1.4 pour leur part sont constitués de deux phases durant chaque phase il peut y avoir jusqu'à six adressages de textures et 8 opérations arithmétiques (attention il n'y a que six textures différentes mais elles peuvent être adressées deux fois dans un shader). J'espère ne pas m'être trompé je connais vraiment peu les PS1.4. Pour les PS2.0 et + je ne peux pas en parler vu que je ne les ai pas étudié mais de toute façon vu leur complexité il est quasiment impératif d'utiliser un HLSL (on ne parle plus de dizaines mais de centaines voire de milliers d'instructions).
 
Dans la pratique vu que c'était ta question initiale on peut dire que les PS1.4 sont plus souples (l'adressage de texture a lieu a deux endroits dans le shader) et permettent de faire plus de travail par passe par exemple Doom3 est rendu en une seule passe avec les PS1.4 alors qu'il en faut 2 ou 3 avec des PS1.3.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
mood
Publicité
Posté le 11-02-2003 à 22:12:38  profilanswer
 

n°2212214
Fendnts
My fading voice sings of love
Posté le 12-02-2003 à 11:03:51  profilanswer
 

ah et ce serait intéressant de savoir si la parhelia arrive à lancer le test mother nature, les GF4TI ne peuvent pas.


---------------
(un posteur anonyme m'a renseigné là dessus tout à l'heure)
n°2212756
sr16
@*#%$*%§!!
Posté le 12-02-2003 à 14:18:35  profilanswer
 

Zeross a écrit :


 
Oui, enfin disons que je bricole un peu en OpenGL ;)
 

Citation :

Ce que je me demande, c'est que vu le fait que tout le monde fait un hardware différent question shaders, comment les jeux pouront ils exploiter ces effets ?
 
Ceux ci ne risquent ils pas de se limiter au plus petit dénominateur commun ?


 
C'est effectivement le risque et c'est même au final ce qu'on a pu observer dans les (rares) jeux utilisant les shaders : ils se limitent à l'utilisation des shaders 1.1 apparus avec la GF3. Le seul espoir qu'il reste c'est l'apparition des HLSL (High Level Shading Language) à partir desquels on devrait pouvoir faire abstraction du hardware sous jacent en utilisant des compilateurs. Mais pour l'instant ça reste asse confidentiel comme utilisation : Nvidia a le Cg mais aucun autre fabriquant n'a développé de "profils" adaptés à son hardware car ils ne veulent pas que Nvidia est la mainmise dans ce domaine (et on les comprend), Dx9.0 est censé avoir un HLSL également intégré espèrons que ça améliore les choses mais je ne me suis pas penché sur la question étant traditionnellement plus OpenGL que DirectX. On peut aussi citer GL2 dans ce secteur mais il semble que Nvidia traîne des pieds pour fournir des drivers performants (cf dernier .plan de Carmack), préférant imposer son Cg plutôt que d'aider GL2 à décoller.
 

Citation :

Et vu le nombre de Geforce 4mx qui se sont vendues et qui je crois ne sont même pas des cartes DirectX 8.


 
Oui c'est malheureux cette politique de Nvidia, d'un côté ils font tout pour encourager les développeurs à utiliser leurs dernières technologies en les documentant énormément et en fournissant il faut le reconnaître des drivers de bon niveau mais de l'autre ils restreignent la portée de ces technologies en imposant sur le secteur entrée de gamme des cartes ne les supportant pas :(
 

Citation :

Quand au support du 1.3 pour les pixel shaders, ça ne corresponds pas a ce que supporte le GF4 TI 4600 ?


 
Oui c'est exactement ça
 

Citation :

Pourait tu nous dire quelle carte supporte quoi ? Et dans la pratique ça correspond a quoi commme différence ?


 
GF3 / GF3 Ti : Pixel Shaders 1.1
GF4 Ti / Parhelia / P10 (Wildcat VP) / Xabre : Pixel Shaders 1.3
Radeon 8500 / 9000 / 9100 : Pixel Shaders 1.4
Radeon 9500 /9500 Pro / 9700 / 9700 Pro : Pixel Shaders 2.0
GF FX : Pixel Shaders 2.0+
 
J'ai fait de mémoire et je n'ai pas vérifié mais je pense que c'est correct (même si c'est difficile de suivre vu que les chips sont fréquemment rebaptisés dans la plus grande confusion).  
 
Expliquer dans la pratique à quoi correspondent les différences est plus délicat d'autant que je ne me suis intéressé qu'aux shaders 1.1 (ou 1.3 qui sont fondamentalement très proches) et encore assez récemment d'un point de vue programmation vu que l'extension GL_ARB_fragment_program n'a été approuvée que récemment. Bref je débutte juste et si j'ai une bonne idée de la théorie il me reste encore pas mal de chemin à parcourir en pratique ;)
 
Disons que les différences portent principalement sur la structure du shader et sur le jeu d'instructions. Les pixels shaders 1.1 ou 1.3 sont constitués de 4 adressages de textures (qui peuvent être dépendants) en début de programme et peuvent ensuite compter jusqu'à 8 opérations arithmétiques. Les pixels shaders 1.4 pour leur part sont constitués de deux phases durant chaque phase il peut y avoir jusqu'à six adressages de textures et 8 opérations arithmétiques (attention il n'y a que six textures différentes mais elles peuvent être adressées deux fois dans un shader). J'espère ne pas m'être trompé je connais vraiment peu les PS1.4. Pour les PS2.0 et + je ne peux pas en parler vu que je ne les ai pas étudié mais de toute façon vu leur complexité il est quasiment impératif d'utiliser un HLSL (on ne parle plus de dizaines mais de centaines voire de milliers d'instructions).
 
Dans la pratique vu que c'était ta question initiale on peut dire que les PS1.4 sont plus souples (l'adressage de texture a lieu a deux endroits dans le shader) et permettent de faire plus de travail par passe par exemple Doom3 est rendu en une seule passe avec les PS1.4 alors qu'il en faut 2 ou 3 avec des PS1.3.


 
Merci pour tes infos très completes.
 
Je pense aussi que dans ce domaine les fabricants de CG cherchent tous a tirer la couverture a eux en dépit de l'avancée des choses.
Peut être qu'apres tout NVidia n'a peut être pas si envie que ça de faire en sorte que les GPU deviennent trop rapidement des vrais processeurs même si ils donnent l'impression de pousser par la. Ils pouraient se trouver en porte a faux vis a vis de vrais fabricants de processeurs qui ont plus de savoir faire la dedans et qui pouraient avoir envie de s'essayer a faire des chips graphiques.
Je pense que le problème de la logique actuelle qui semble se diriger un peu trop sur DirectX, c'est que DirectX est spécifique a Windows. Je trouve que c'est un gros inconvénient.
 
 


---------------
TOPIC PERMANENT Matrox Parhelia
n°2212772
sr16
@*#%$*%§!!
Posté le 12-02-2003 à 14:24:14  profilanswer
 

fendnts a écrit :

ah et ce serait intéressant de savoir si la parhelia arrive à lancer le test mother nature, les GF4TI ne peuvent pas.


 
J'ai pas encore reussi a me procurer le fameux bench. Je vais tout de suite confier cette tache a une machine sur mon réseau.
 
Si j'en crois ce que j'ai lu, c'est un test spécifique DirectX 9.
 
Or la Parhelia n'est pas Full Direct X 9. Seuls les Vertex Shaders en version 2.0 sont compatible DirectX 9. Or, si j'ai bien compris, le test Mother nature ferait appel aux Pixel shaders 2.0 que la Matrox ne supporte pas.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2212798
Ernestor
modo-coco :o
Posté le 12-02-2003 à 14:30:00  profilanswer
 

En ce moment je suis sur ce site pour le telechargement de 3D Mark 2003 : http://games.telenet.be/files.html
 
Je suis a 100 Ko/s c'est pas mal :)


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2214073
sr16
@*#%$*%§!!
Posté le 12-02-2003 à 20:09:52  profilanswer
 

Bon, je suis en train de télécharger le bébé.
 
Cela dit, je ne m'attends pas a des miracles avec les shaders.
 
Comme l'a signalé un communiqué de NVIDIA, l'utilisation par 3DMark2003 des Pixels Shaders 1.4 est extrèmement contestable.
 
Pourquoi ? Parce qu'a ma connaissance ils ne sont supportés que par ATI.
 
Donc on peut s'attendre a ce que les jeux, qui comme l'a dit Zeross plus haut commencent a peine a utiliser les Pixel Shaders 1.1 n'utilisent jamais les 1.4 car ils seront supportés par trop peu de cartes graphiques.
Le plus petit dénominateur commun après le pallier 1.1 sera sans conteste le pallier des 1.3 (Que supporte la Parhelia) qui sont supportés par toutes les cartes DirectX 8.
Le pallier suivant sera sûrement le 2.0 pour les pixel shaders.
 
A noter que la Parhelia supporte les Vertex Shaders 2.0 de DirectX 9 ainsi que quelques autres fonctions. Mais honnêtement, je pense que ça ne lui sera pas d'une grande utilitée.
 
Comme le disent les multiples articles parus, c'est une jolie démo mais pas un bon outil pour disséquer les détails des possibilités de chaque architecture.
 
J'aurais aussi préféré une batterie de tests théorique et paramétrables. Genre quelques milliers de polygones aux caractéristiques paramétrables. Histoire de se faire une idée de ce qui fait quoi. Pour pouvoir tester réellement, faut il encore comprendre ce qui se passe.
Quand aux tests de vitesse, ils sont logiquement mieux effectués par les jeux eux même.


Message édité par sr16 le 12-02-2003 à 20:18:48

---------------
TOPIC PERMANENT Matrox Parhelia
n°2214095
Ernestor
modo-coco :o
Posté le 12-02-2003 à 20:17:22  profilanswer
 

J'ai une autre version ou explication pour les PS 1.4 :)
 
3D Mark est un bench technologique qui sert a tester les performances theoriques des cartes pour chaque generation de DirectX et non pas a refleter ce qu'une config vaut dans un jeu d'aujourd'hui ou de demain.
 
Donc si il est clair qu'aucun jeu n'utilisera les PS 1.4, il est aussi clair que les PS 1.4 font partie de DX 8.1 et il n'est pas anormal que la version 2003 de 3D Mark utilisent deux tests DX 8.1 (en plus du test DX 9 et du test DX 7).
 
La version 2001 avait ete de ce cote la bien peut interessante en restant un bench DX 7 avec un seul test DX 8 en plus (Nature). Le test DX 8.1 (advanced pixel shader n'entrant pas dans le calcul du score).
 
C'est une interpretation, je dis pas que c'est la bonne :D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2214153
sr16
@*#%$*%§!!
Posté le 12-02-2003 à 20:33:43  profilanswer
 

Ernestor a écrit :

J'ai une autre version ou explication pour les PS 1.4 :)
 
3D Mark est un bench technologique qui sert a tester les performances theoriques des cartes pour chaque generation de DirectX et non pas a refleter ce qu'une config vaut dans un jeu d'aujourd'hui ou de demain.
 
Donc si il est clair qu'aucun jeu n'utilisera les PS 1.4, il est aussi clair que les PS 1.4 font partie de DX 8.1 et il n'est pas anormal que la version 2003 de 3D Mark utilisent deux tests DX 8.1 (en plus du test DX 9 et du test DX 7).
 
La version 2001 avait ete de ce cote la bien peut interessante en restant un bench DX 7 avec un seul test DX 8 en plus (Nature). Le test DX 8.1 (advanced pixel shader n'entrant pas dans le calcul du score).
 
C'est une interpretation, je dis pas que c'est la bonne :D


 
Je pense que tu as raison. Ils ont choisi clairement de s'aligner sur la version 8.1 de Direct X.
 
Remarque, vu que un soft ça se programme assez a l'avance, ils ont sans doute décidé cela des que les specs 8.1 ont été connues. Ils ont peut être pas prévu que la plupart des constructeurs passeraient de la 1.3 a la 2.0
 
Dommage car ca enlève beaucoup d'interet a leur soft.
 
Quand a la note, elle est assez contestable aussi. Il semblerait que la R8500 se fait complètement descendre alors que ça ne corresponds pas a la réalité, mais simplement au fait que la carte n'est pas DirectX 9.
 
Mais bon, je vais attendre de le tester. Je vous donnerait mes impressions.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2214183
Ernestor
modo-coco :o
Posté le 12-02-2003 à 20:40:15  profilanswer
 

En fait la GF 3 est DX 8.0 (donc PS 1.3). La 8500 et derivees (9000/9100) est DX 8.1 (donc PS 1.4). Bizarrement, la GF 4 Ti est seulement DX 8.0 et non pas 8.1 (cela dit ca se comprend, la GF 4 etant une sorte de GF 3 2.0). Donc si nVidia avait ete "logique" ils auraient rajoute les PS 1.4 dans la GF 4 pour suivre l'evolution attendue. Mais ils ne l'ont pas fait [:spamafote]
 
Ensuite, je suis bien d'accord que ce bench ne represente pas grand chose. Il est bien trop dur pour les cartes DX 8. Du moins les scores auraient pu etre plus eleves et les tests ramer moins. Et des tests de qualite avec aniso et/ou FSAA a la place des inutiles tests CPU ca aurait ete pas mal.
 
Cela dit, n'oublions pas que 3D Mark 2001 ne representait pas grand chose de concret non plus. Donc que le 2003 ne le fasse pas non plus, c'est pas anormal, c'est le type de bench qui veut ca.


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2214188
zorlac
Junglist are you ready ?
Posté le 12-02-2003 à 20:41:54  profilanswer
 

En plus le carte dx8 sans desavantage dès le debut puique qu'un test de demare pas.

mood
Publicité
Posté le 12-02-2003 à 20:41:54  profilanswer
 

n°2214560
sr16
@*#%$*%§!!
Posté le 12-02-2003 à 22:28:04  profilanswer
 

ZoRLaC a écrit :

En plus le carte dx8 sans desavantage dès le debut puique qu'un test de demare pas.  


 
:cry:  
 
http://perso.club-internet.fr/omerle/blabla/Dico.jpg


---------------
TOPIC PERMANENT Matrox Parhelia
n°2214565
Boba_Fett
Posté le 12-02-2003 à 22:30:53  profilanswer
 

Alors Sr16 tu nous fait péter les résultats de ta Parhellia sour 3DMark03 ??

n°2214593
sr16
@*#%$*%§!!
Posté le 12-02-2003 à 22:44:53  profilanswer
 

Patience, ça va venir.
 
Déja je l'ai eu, c'est déja un pas. Merci Ernestor pour l'adresse qui marche. Je l'ai eu assez rapidement.
 
Mais je suis obligé de déghoster une config sur un autre HD.
 
Tout simplement parce que ce #*!§$ de bench veut DirectX 9 que j'ai pas l'intention de mettre sur ma config principale vu que ça n'apporte rien a part des ennuis.
 
Donc je déghoste la config j'installe le test et vous aurez tout ça.

n°2215013
Zeross
Posté le 13-02-2003 à 01:12:25  profilanswer
 

Ernestor a écrit :

En fait la GF 3 est DX 8.0 (donc PS 1.3). La 8500 et derivees (9000/9100) est DX 8.1 (donc PS 1.4). Bizarrement, la GF 4 Ti est seulement DX 8.0 et non pas 8.1 (cela dit ca se comprend, la GF 4 etant une sorte de GF 3 2.0). Donc si nVidia avait ete "logique" ils auraient rajoute les PS 1.4 dans la GF 4 pour suivre l'evolution attendue. Mais ils ne l'ont pas fait [:spamafote]


 
Au contraire : Nvidia a été parfaitement logique :)
Je m'explique : la GF4 a été conçu comme une carte de transition, la durée de gestation du produit a été extrêmement courte car elle reprenait en très grande partie les bases de l'architecture de la GF3. Intégrer les PS1.4 signifiait une remise à plat de toute l'unité de rastérisation sachant que de toute façon le NV30 qui était déjà dans le pipeline a ce moment là allait encore tout reprendre à zéro à ce niveau pour intégrer un pipeline flottant conforme à Dx9.0 c'était du gâchis surtout que les jeux utilisant les PS n'étaient pas nombreux qui plus est les PS1.4.
 
Ceci dit il est vrai que d'un point de vue technologique il aurait été intéressant d'intégrer les PS1.4 a la GF4 mais ce n'était pas viable.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2215882
Ernestor
modo-coco :o
Posté le 13-02-2003 à 13:54:34  profilanswer
 

Tout a fait :)
 
Je comprend bien la raison technologique qui a pousse nVidia a en en rester au PS 1.3.
 
Le probleme c'est qu'ils font un peu ce qu'ils veulent sans se soucier soit de l'interet des joueurs et des developpeurs de jeu soit de coller aux specs DirextX.
 
Par exemple, la GF 4 Mx est un enorme retour en arriere car on arrivait dans une periode ou a priori toutes les cartes allaient etre DX 8. Et la, sortir une carte DX 7 en sachant que que ca allait etre la carte la plus vendue (marche OEM, PC de supermarche), c'est un sale coup donne a l'adoption de DX 8 par les developpeurs de jeu (c'etait pas pres d'arriver c'est sur, mais avec la GF 4 Mx on peut maintenant oublier). Ensuite la GF 4 Ti qui est juste une evolution de la GF 3 et donc n'est pas DX 8.1 comme l'est la 8500 depuis longtemps. Et le coup de la FX qui est DX 2.0+ alors qu'en PS 2.0 elle est a la ramasse (peut-etre un probleme de drivers, a voir) donc cette compatibilite sert pas a grand chose.
 
Bon, je dis beaucoup de mal de nVidia c'est vrai je reconnais, mais faut dire qu'avec les histoires de la FX ils se foutent un peu de la gueule du monde :D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2215950
evildeus
Posté le 13-02-2003 à 14:19:52  profilanswer
 

Ernestor a écrit :

Bon, je dis beaucoup de mal de nVidia c'est vrai je reconnais, mais faut dire qu'avec les histoires de la FX ils se foutent un peu de la gueule du monde :D

Ah, je croyais que c'etait l'inverse :D
 
PS: PS 1.3 c'est DX 8.1  :ange:


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2215968
suerayate2
TOOL POWAAAA
Posté le 13-02-2003 à 14:25:53  profilanswer
 

pkoi tant de haine nevers la GFFX?? franchement moi ce que je voit en cette carte, ce n'est seulement les perfs mais surtout une architecture d'avenir!! Je m'explique: la gffx est vraiment très interessante sur tout point de vu, son seul défaut à mes yeux est d'avoir adopté un bus 128 à la place d'un bus 256, ce qui ne permet pas je pense d'exploiter correctement la carte... C'est pkoi je pense que la carte qui va succeder à la GFFX sera une petite bombe!! En fait on peut faire un parallèle avec le Pentium 4 d'intel, décrié à sa sortie, et maintenant on connait le résultat grâce à différentes optimisations de son architecture qui ont rendu ce processeur vraiment performant!
C pareil pour ce qui est du parhelia, matrox a réalisé une carte qui poosède une architecture fort interessante et qui aurait pu être vraiment performante si matrox avait adopté un système d'allègement de la bande passante...
 :D Bon ok, certain vont penser que je raconte n'importe koi mais voilà fallait que je dis un peu ce que je pense ;)  :whistle:

n°2215980
suerayate2
TOOL POWAAAA
Posté le 13-02-2003 à 14:29:52  profilanswer
 

Evildeus a écrit :

Ah, je croyais que c'etait l'inverse :D
 
PS: PS 1.3 c'est DX 8.1  :ange:  


 
 :non: ps 1.1 et 1.3 ==> dx8
ps 1.4 ==> dx8.1

n°2216143
sr16
@*#%$*%§!!
Posté le 13-02-2003 à 15:39:53  profilanswer
 

suerayate2 a écrit :

pkoi tant de haine nevers la GFFX?? franchement moi ce que je voit en cette carte, ce n'est seulement les perfs mais surtout une architecture d'avenir!! Je m'explique: la gffx est vraiment très interessante sur tout point de vu, son seul défaut à mes yeux est d'avoir adopté un bus 128 à la place d'un bus 256, ce qui ne permet pas je pense d'exploiter correctement la carte... C'est pkoi je pense que la carte qui va succeder à la GFFX sera une petite bombe!! En fait on peut faire un parallèle avec le Pentium 4 d'intel, décrié à sa sortie, et maintenant on connait le résultat grâce à différentes optimisations de son architecture qui ont rendu ce processeur vraiment performant!
C pareil pour ce qui est du parhelia, matrox a réalisé une carte qui poosède une architecture fort interessante et qui aurait pu être vraiment performante si matrox avait adopté un système d'allègement de la bande passante...
 :D Bon ok, certain vont penser que je raconte n'importe koi mais voilà fallait que je dis un peu ce que je pense ;)  :whistle:  


 
Justement, on peut dire que la Parhelia et la GFFX ont une logique opposée.
 
La Parhelia utilise un très gros moteur et une algorythmique plus simple. NVidia utilise un petit moteur et une algorythmique  plus sophistiquée.
Certes, la GFFX utilise de la DDR2 128 bits, ce qui équivaut (Mais pas tout a fait) a de ls DDR 256 bits.
Mais ça ne convient pas trop a une carte de cette génération qui aurait du adopter plutôt de la DDR2 sur 256 bits.
 
A tout prendre, a vitesse equivalente il vaut mieux un gros moteur pas très optimisé qu'un petit boosté avec des algos.
Parce que les optis alogorithmiques ça n'a pas que des avantages.  
 
On critique le chip Parhelia. Mais faut pas oublier qu'il ne tourne qu'a 220MHZ.  
 
Il semblerait que Matrox envisage le passage a la gravure 0,09 Microns. Qui sait a quelle vitesse il tournerait alors.  
Et avec quelques optimisations internes et peut être l'adoption de mémoire DDR2 et l'adjonction d'algo HSR on peut imaginer une belle carte.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2216147
sr16
@*#%$*%§!!
Posté le 13-02-2003 à 15:41:30  profilanswer
 

Patience pour le test sous 3DMark2003
 
J'ai du mal a trouver un créneau de 2 heures pour déghoster ma config sur 20 CD.
 
Et comme j'ai pas mal de travail aujourd'huis, je ne pourais faire ça que ce soir.
 
Mais ça va venir.
 
A+


---------------
TOPIC PERMANENT Matrox Parhelia
n°2216185
evildeus
Posté le 13-02-2003 à 16:06:05  profilanswer
 

suerayate2 a écrit :


 
 :non: ps 1.1 et 1.3 ==> dx8
ps 1.4 ==> dx8.1

Faut que je ressorte encore mon lien M$?  :sleep:  
 

Citation :

Expanded pixel shader functionality with new version 1.2, 1.3, and 1.4.  


 
 
http://msdn.microsoft.com/library/ [...] atsNew.asp
 
 :kaola:  
 


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2216315
suerayate2
TOOL POWAAAA
Posté le 13-02-2003 à 16:46:51  profilanswer
 

aaaaaaaaaarrrrrrrrrrrrrrrrgggggggg

Citation :

Côté fonctionnalités, le GeForce4 Ti 4200 est strictement identique à ses grands frères. Le GeForce 4 Ti 4200 est donc une puce DirectX 8 supportant les Pixel Shaders 1.3, contre 1.4 pour le Radeon, ainsi que les Vertex Shaders 1.1.


http://www.hardware.fr/medias/photos_news/00/03/IMG0003663.gif

n°2216355
evildeus
Posté le 13-02-2003 à 17:03:50  profilanswer
 

suerayate2 a écrit :

aaaaaaaaaarrrrrrrrrrrrrrrrgggggggg

Citation :

Côté fonctionnalités, le GeForce4 Ti 4200 est strictement identique à ses grands frères. Le GeForce 4 Ti 4200 est donc une puce DirectX 8 supportant les Pixel Shaders 1.3, contre 1.4 pour le Radeon, ainsi que les Vertex Shaders 1.1.




He oui, personne est parfait :D
 
PS: C'est pour cela que Nvidia dit que ces GF4 Ti sont DX 8.1 :D


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2216414
stefff31
carpe diem
Posté le 13-02-2003 à 17:28:37  profilanswer
 

[:michrone]

n°2216460
Ernestor
modo-coco :o
Posté le 13-02-2003 à 17:48:37  profilanswer
 

Evildeus a écrit :


He oui, personne est parfait :D
 
PS: C'est pour cela que Nvidia dit que ces GF4 Ti sont DX 8.1 :D


Mais c'est pas vrai  :whistle:  
 
Toujours la dans les histoires de PS toi  :p  
 :hello:  
 
suerayate2> pourquoi je dis du mal de la FX ?
C'est simple :D
 
C'est une carte qu'on a attendue 6 mois (par rapport a sa date d sortie initialement prevue) et autour de laquelle nVidia a fait un barrouf marketing monstre en nous annoncant une revolution. Finalement on se retrouve face a une carte poussive (je parle de la version Ultra) qui avec 6 mois de retard se galere a depasser peniblement la 9700 Pro et doit pour cela etre poussee au max (500 Mhz) avec les consequences que l'on sait (chaleur, consommation electrique, bruit...).
Et pour finir, on apprend que finalement, cette carte n'est sortie que pour un bench ou deux afin de montrer que nVidia est capable de faire mieux que la 9700 Pro mais qu'en fait elle ne sera pas (ou tres peu) commercialisee.
Et le dernier episode est aussi rigolo que le reste : sous pretexte que 3D Mark 2003 n'est pas adapte a la FX, nVidia crache dessus, ce qu'ils avaient oublie de faire avec la version 2001, comme c'est bizarre.
 
Donc en resume : FX Ultra = coup marketing pathetique de la part de nVidia  :pfff:  
 
C'etait un post d'Ernestor, en mode MagiSim  :sol: :D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2216469
Zeross
Posté le 13-02-2003 à 17:51:32  profilanswer
 

Vous allez pas recommencer avec vos histoires de pixels shaders si ? :heink:  
 
Bon les 1.3 sont apparus avec Dx8.1 MAIS pour être full Dx8.1 il faut supporter les 1.4 c'est tout !


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2216524
sr16
@*#%$*%§!!
Posté le 13-02-2003 à 18:09:03  profilanswer
 

Ernestor a écrit :


Mais c'est pas vrai  :whistle:  
 
Toujours la dans les histoires de PS toi  :p  
 :hello:  
 
suerayate2> pourquoi je dis du mal de la FX ?
C'est simple :D
 
C'est une carte qu'on a attendue 6 mois (par rapport a sa date d sortie initialement prevue) et autour de laquelle nVidia a fait un barrouf marketing monstre en nous annoncant une revolution. Finalement on se retrouve face a une carte poussive (je parle de la version Ultra) qui avec 6 mois de retard se galere a depasser peniblement la 9700 Pro et doit pour cela etre poussee au max (500 Mhz) avec les consequences que l'on sait (chaleur, consommation electrique, bruit...).
Et pour finir, on apprend que finalement, cette carte n'est sortie que pour un bench ou deux afin de montrer que nVidia est capable de faire mieux que la 9700 Pro mais qu'en fait elle ne sera pas (ou tres peu) commercialisee.
Et le dernier episode est aussi rigolo que le reste : sous pretexte que 3D Mark 2003 n'est pas adapte a la FX, nVidia crache dessus, ce qu'ils avaient oublie de faire avec la version 2001, comme c'est bizarre.
 
Donc en resume : FX Ultra = coup marketing pathetique de la part de nVidia  :pfff:  
 
C'etait un post d'Ernestor, en mode MagiSim  :sol: :D  


 
C'est vrai que c'est très bizarre cette histoire avec le GeForce FX.
Ca tendrait a dire que les fabricants de chip ne connaissent la puissance de leur bébé que très tard dans la phase de conception. Si ça se fait, entre le développement du chip et les drivers, c'est très tard. Trop tard.
 
Je pense que le GeForce FX n'est en pratique pas réellement compétitif par rapport au Radeon 9700. La carte a l'air beaucoup plus onéreuse a la fabrication que la R9700 et au niveau des performances elle est a peine devant alors que la 9700 est sortie depuis un moment.
Je pense que NVIDIA sait ne pas pouvoir baisser son prix ils savent que ils n'en vendront vraisemblablement pas enormément a ce prix la.  
C'est bien ça le problème.  
 


---------------
TOPIC PERMANENT Matrox Parhelia
n°2216554
Ernestor
modo-coco :o
Posté le 13-02-2003 à 18:19:22  profilanswer
 

Pour la defense de nVidia, il ne faut pas oublier les problemes rencontres par les fondeurs pour mettre au point le 0.13 micron. Et puis bon, un GPU c'est tres long a concevoir aussi.
 
Et je pense que nVidia avait aussi sous-estime la capacite d'ATI a revenir aussi vite dans la course. La 9700 Pro a frappe tres fort et ils devaient pas s'y attendre, ca les a pris de court.


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2216564
blazkowicz
Posté le 13-02-2003 à 18:23:19  profilanswer
 

L'utilisation des PS 1.4, je vois pas ce qu'elle a de contestable, sur les cartes ne les supportant pas, les PS 1.1 sont utilisés pour faire le même boulot -> c'est exactement ce qui va se passer avec les jeux programmés en HLSL, Cg et GL2

n°2216655
sr16
@*#%$*%§!!
Posté le 13-02-2003 à 19:02:29  profilanswer
 

Blazkowicz a écrit :

L'utilisation des PS 1.4, je vois pas ce qu'elle a de contestable, sur les cartes ne les supportant pas, les PS 1.1 sont utilisés pour faire le même boulot -> c'est exactement ce qui va se passer avec les jeux programmés en HLSL, Cg et GL2


 
Pas forcément.
 
Parce que programmer 3 fois les effets et a chaque fois d'une manière différente c'est pas rentable pour les equipes de développement.
Certains tarés le feront peut être. Mais je doute que la majorité des concepteurs de jeu passent des heures carrées pour exploiter chaque déclinaison des Shaders. Ca sera toujours la logique du : Comment toucher le max de gens avec le minimum d'heures de développement.
 
Commercialement, voila ce que je ferais : Vu que beaucoup de testeurs au niveau de la presse disposent des dernières cartes, je programme les effets superbes dans la version 2.0 des shaders. Et une autre déclinaison en ... 1.1 pour les autres.
C'est toujours pareil, le raisonnement commercial c'est de se dire d'un côté: Qu'est ce que je peut faire pour la jouer un max. Et de l'autre : Qu'est ce que je peut faire pour que ça me coûte le moins cher possible.
 
Exploiter plusieurs versions des shaders peut être complexe : Ca peut signifier une architecture différente au niveau du logiciel.
 
Si on suit la théorie des écoles de programmation : Le render devrait s'adapter a ce que l'on a a représenter. Sauf que pour des raisons d'optimisation on fait le contraire : Toute l'architecture d'un jeu se trouve faite en fonction des capacités de render.
 
Et oui : a un certain age, on voit par la passion. Et puis après on vieillit et on a une femme et des gosses a nourrire a habiller et a emmener en vaccances, un clebs et des notes de garagiste pour le Renault Scenic a payer. La, on commence a voir par le fric.
 


---------------
TOPIC PERMANENT Matrox Parhelia
n°2216664
Ernestor
modo-coco :o
Posté le 13-02-2003 à 19:08:52  profilanswer
 

T'as tout a fait raison en ce qui concerne les developpeurs de jeux :)
 
Par contre, le probleme c'est 3D Mark 2003 est pas un jeu et le but c'est pas qu'il tourne le mieux possible sur la plupart des machines et sans que le developpeur doivent faire plusieurs versions, ce qui l'amenerait a choisir les PS 1.1. C'est un benchmark. A ce titre, c'est pas anormal que ca utilise des PS 1.4 et uniquement ceux-la meme si c'est pas le plus accessible a toutes les cartes. Et si le PS 1.4 existe, il est emule en hardware avec les PS 1.3 si j'ai bien compris mais ca rame forcement.
 
Meme si c'est vrai que les PS 1.4 pour ces raisons-la ne seront jamais utilises dans les jeux. C'est sur qu'on peut alors penser que 3D Mark 2003 est deconnecte de la realite. Mais le 2001 l'etait aussi. A la limite 3D Mark 2001 c'est du meme niveau que le bench Flyby de UT 2003 : perfs 3D uniquement. Mais le plus important c'est pas ca, c'est le test Botmatch : perfs 3D + IA + gestion jeu cad une vraie simulation de jeu.


Message édité par Ernestor le 13-02-2003 à 19:14:14

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2216745
sr16
@*#%$*%§!!
Posté le 13-02-2003 à 19:44:01  profilanswer
 

Ernestor a écrit :

Pour la defense de nVidia, il ne faut pas oublier les problemes rencontres par les fondeurs pour mettre au point le 0.13 micron. Et puis bon, un GPU c'est tres long a concevoir aussi.
 
Et je pense que nVidia avait aussi sous-estime la capacite d'ATI a revenir aussi vite dans la course. La 9700 Pro a frappe tres fort et ils devaient pas s'y attendre, ca les a pris de court.


 
Tout a fait.
 
Je pense effectivement que ce sont des choses qui se jouent  pas mal de temps a l'avance. Comme je le disait pour la Parhelia, un petit retard de développement c'est vite fait. Et a 2 mois près, le produit est vu comme superbe ou au contraire merdique.
Je pense effectivement que ATI a frappé très fort.
Cela dit, je les soupçonne aussi d'avoir des algos assez trafiqués.
Par exemple, je ne comprends pas bien comment on peut obtenir de l'aniso sans perte de perfs sachant que pour faire de l'aniso il faut quand même aller chercher beaucoup de samples en mémoire et que c'est ça qui ralentit toutes les CG.
N'auraient ils pas simplement utilisé une bête matrice de convolution avec un classique filtre "sharpen" ? appliqués sur la base des samples faits pour le bilinéaire classique ?
Cela dit, on en revient toujours a la même chose sur les optimisations : Du moment que ça marche bien et que les gens en sont content question qualité, pourquoi pas ?
D'ailleurs on voit bien aussi a la valeur de leur Filtrage AA que ATI fait des merveilles question algos.
 
Donc oui, je pense que NVidia a été sans doute surpris par la puissance du 9700. Ce qui est etonnant c'est qu'il est sorti depuis longtemps. Donc NVIDIA savait depuis longtemps ce qu'il en était.
Cela signifie soit que les cycles de conception sont très longs. Soit que on ignore jusqu'au bout les perfs réelles d'un chip.
 
Je pense aussi que ils auraient du voir plus grand : Un bus 256 bits DDR2. Mais c'est peut être encore un peu tôt. C'est peut être ce qu'ils comptent faire en renballant la FX.
 
De toute façon, la logique conne est la suivante. D'un côté il faut que tu soit le meilleur sur les cartes haut de gamme pour la valeur de ton nom. De l'autre tu fais de l'argent en vendant des GeForce 4MX qui sont a peine des Geforce 2 de la dernière guerre.
Dans la pratique une 4Mx suffit amplement a faire tourner 95% des jeux du marché.
 
C'est vrai que quand on voit l'interet intrinsèque d'un UT2003 on peut se demander franchement ou est l'interet.
 
Ca me rapelle un peut ma jeunesse. Au début sur C64, Atari 800Xl et Amstrad il y a eu une tonne de jeux excitants, captivants avec pleins de nouveaux concepts. On s'amusait beaucoup.
Puis sont venus les Atari ST, Amiga. Il y a eu quelques bons jeux. Mais pour beaucoup on a fait des remakes plutôt moyens des anciens jeux. C'est la qu'on a vu que des graphismes plus beaux ne faisaient pas toujours de meilleurs jeux. On a eu droit a des tonnes de jeux insipides mais très beaux. Ils etaient tous plus copiés les uns sur les autres que jamais. Il y a eu la mode des casses briques. La mode des Tétris.  
Bien sûr il n'y a pas eu que des mauvais jeux. On s'est beaucoup amusé quand même. Mais pour une bonne partie des bons jeux : Ils auraient pu tourner sur les ordinateurs de la série précédente.
Pourtant, de nouveaux concepts sont apparus sur Amiga et Atari ST : La 3D.
Mais ces machines ne permetaient pas de faire des choses très excitantes en 3D.
Et puis est arrivé le PC. D'abord avec ses procos rapides.
A l'époque tout allait a l'inverse. L'Amiga par exemple avait un processeur excellent. Mais il n'a pas evolué beaucoup avec le temps. Tout reposait sur ses fabuleux circuits accélérateurs matériels. Malheureusement ils étaient inadaptés a faire du mapping de texture en 3D. Déja pour leur faire tracer des polygones c'était pas simple. Je me souviens des jours passés a essayer d'optimiser mon moteur 3D. Des heures passées sur quelques instructions assembleur en se demandant comment on pouvait ganger 1 cycle d'horloge par ci ou par la.
Les PC486 ont balayé les Amiga.
Et puis les cartes 3D sont arrivées. Je me souvient de la première 3DFX. On en bavait. J'en ai encore une dans un placard. Vous savez celle avec son cable qui se fixait sur une autre CG.
Et comme chacun sait, ça n'a fait qu'évoluer. Plutôt rapidement d'ailleurs.
Et de nouvelles possibilités ont permis l'apparition et la réalisation aboutie de nouvelles idées : Half Life, UT, Quake 3.
Et maintenant ? que faire ?
Ca fait un moment qu'on nous ressert la plupart des idées a toutes les sauces.
Et avec les cartes graphiques améliorées, que fera t-on ?
De nouveaux Half Life, UT ou Q3 avec des plus beaux graphismes ?
Qu'est ce que cela apportera ? A mon avis rien de bien amusant.
Pour apporter du renouveau il faudrait utiliser les possibilités des cartes pour faire des choses que l'on ne pouvait pas faire avant. Mais sont elles déja assez puissantes pour ça ? C'est pas certain.
Je pense qu'on vit une periode comme au début de l'Amiga. C'est a dire beaucoup de frime mais pas beaucoup de révolutions.
Pour ça, je crois qu'il faudra atteindre encore un peu.
 
Mais ne boudont pas notre plaisir. Les nouvelles CG fonctionnent bien et sont agréables... avec les anciens jeux.
 
Personellement, j'arrive pas a me défaire d'UT version 1.
 
Je ne retrouve pas le même plaisir dans le 2003. Les maps sont pas cool. Les armes sont pas cool. Les attitudes des corps des joueurs sont nunuches. Rien n'est cool. Il y a des trucs partout : On y voit rien. Et maintenant les joueurs tordent le cul et le cou en avançant : C'est bof bof. Quand je regarde bien, je me demande ou est le progres.
Certes, le moteur 3D a bien evolué. Mais son utilisation laisse a désirer.
Je suis en train de refaire une map "cool" avec des tectures cool. Je vais essayer de voir si on peut retrouver au moins une partie des sensations excitantes sur cet horrible jeu ou le commercial et les images qui font vendre ont pris le pas sur l'interet du jeu.
 


---------------
TOPIC PERMANENT Matrox Parhelia
n°2216776
Ernestor
modo-coco :o
Posté le 13-02-2003 à 19:59:02  profilanswer
 

Ca c'est clair que trouver des concepts et des jeux originaux de nos jours c'est pas ca :/
Y a peut-etre eu quand meme GTA 3 recemment ;)
 
Mais bon, c'est sur que genreralement c'est uniquement de la repompe d'anciens gameplays avec un nouveau vernis pour des graphismes plus jolis, histoire que ca fasse nouveau.  
 
Et c'est vrai que moi aussi je joue encore souvent a de vieux jeux. Un des jeux auquel je joue le plus c'est Quake 3 :D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2216784
sr16
@*#%$*%§!!
Posté le 13-02-2003 à 20:01:11  profilanswer
 

Ernestor a écrit :

T'as tout a fait raison en ce qui concerne les developpeurs de jeux :)
 
Par contre, le probleme c'est 3D Mark 2003 est pas un jeu et le but c'est pas qu'il tourne le mieux possible sur la plupart des machines et sans que le developpeur doivent faire plusieurs versions, ce qui l'amenerait a choisir les PS 1.1. C'est un benchmark. A ce titre, c'est pas anormal que ca utilise des PS 1.4 et uniquement ceux-la meme si c'est pas le plus accessible a toutes les cartes. Et si le PS 1.4 existe, il est emule en hardware avec les PS 1.3 si j'ai bien compris mais ca rame forcement
 
Meme si c'est vrai que les PS 1.4 pour ces raisons-la ne seront jamais utilises dans les jeux. C'est sur qu'on peut alors penser que 3D Mark 2003 est deconnecte de la realite. Mais le 2001 l'etait aussi. A la limite 3D Mark 2001 c'est du meme niveau que le bench Flyby de UT 2003 : perfs 3D uniquement. Mais le plus important c'est pas ca, c'est le test Botmatch : perfs 3D + IA + gestion jeu cad une vraie simulation de jeu.


 
Je pense qu'on peut reprocher a 3DMark 2003 de n'être ni un vrai outil permetant d'explorer l'architecture des cartes en comparant leurs perfs sur des tests purement techniques metant en lumière des points précis de l'architecture, ni un outil permetant de faire des tests sur les performances réelles en jeu.
Le cul entre 2 chaises quoi.
 
Le pire, c'est si les fabricants de cartes se lancent dans la surenchère et conçoivent des circuits dont une partie serait optimisée pour avoir des bons chiffres a 3DMark sans que cela ait des répercussions forcément dans les jeux.
 
Donc a quoi sers ce test virtuel ? Certes c'est de bien belles démos. Mais a quoi ça sers en pratique ? J'y joue pas souvent a 3DMark :D  
 
De plus, pour ce qui est des PS1.4, les jeux utiliseront les 1.1 ou les 1.3. Alors le test qui fera sn evaluation avec les 1.4 déclarera la carte nase par rapport a celle qui supporte le 1.4 alors qu'en condition réelle elles iront a la même vitesse puisque le jeu n'utilisera au mieux que le 1.3.
Pire même. Ce test déclare apparement mauvaise toute carte qui ne supporte pas DirectX 9.
Donc sur le papier, c'est un test extrèmement contestable.
 
Je suis totalement d'accord avec toi que il vaut mieux se fier aux tests en jeux. Mais pas uniquement en mode botmatch.
Car tous les jeux n'utilisent pas la même puissance processeur. Le mode flyby et le mode botmatch permetent d'évaluer la réponse en fonction d'une utilisation intensive ou d'une utilisation légère du processeur.
On voit que certaines cartes sont plus sensibles que d'autres a cela.
Un exemple concret : La vieille Matrox G400 fonctionne beaucoup mieux avec un proco puissant car le T&L est fait par le processeur.
Plus réellement aujourd'huis, ça dépends du degré de traitement matériel fait par les cartes.
Aucunes cartes ne peut faire un traitement matériel total. Dans beaucoup de cas, les opérations faites par les cartes demandent de leur donner a bouffer les données a calculer sous une forme plus ou moins avancée. En fonction de ce que peut faire la carte, on aura plus ou moins besoin du processeur.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2216804
Ernestor
modo-coco :o
Posté le 13-02-2003 à 20:09:05  profilanswer
 

Il est clair que les choix pris dans 3D Mark 2003 suscitent a juste titre pas mal de polemique. En un sens c'est plutot une bonne chose. Si les gens critiquent ce bench, ils l'utiliseront moins et arreteront enfin d'utiliser n'importe comment ce genre de bench qui ne donne aucune info interessante vu la facon dont il est utilise 95% du temps (on se contente de regarder le score global, ce qui n'a aucun interet sauf pour comparer avec d'autres machines et voir si ca config est bien reglee - j'en parle plus dans mon topic 3D Mark de tout ca :  [:ernestor]).
 
Ce qui me fait toujours halluciner c'est que 3D Mark 2001 soit la reference de fait du bench 3D pour enornement de gens. Ca a pas de sens...
Si le 2003 ne suit pas le meme chemin, on aura avancer dans la bonne direction :D
 
Sinon, je suis d'accord avec toi pout UT 2003. De toute facon, il ne faut pas utiliser un seul bench mais plusieurs. Personnelement quand je veux vraiment tester a fond ma config en 3D, je me base souvent sur Quake 3, Serious Sam 2, UT 2003 et 3D Mark 2001 (en regardant les scores en detail, le score global n'a aucun sens).


Message édité par Ernestor le 13-02-2003 à 20:10:02

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2216822
sr16
@*#%$*%§!!
Posté le 13-02-2003 à 20:15:45  profilanswer
 

Ernestor a écrit :

Ca c'est clair que trouver des concepts et des jeux originaux de nos jours c'est pas ca :/
Y a peut-etre eu quand meme GTA 3 recemment ;)
 
Mais bon, c'est sur que genreralement c'est uniquement de la repompe d'anciens gameplays avec un nouveau vernis pour des graphismes plus jolis, histoire que ca fasse nouveau. ;)


 
Oui, comme tu peut le constater, les nouveaux concepts sont rares. Il y en a toujours un de temps en temps... qui est noyé dans les magasins sous 3 tonnes de m....
 
Le problème des remakes dans la réalité c'est que parfois ils dégradent ce qui avait fait le succès du jeu d'origine. Souvent, les nouveaux graphismes rendent le jeu moins clair.
Il arrive bien sûr que ce soit très reussi. Mais c'est pas forcément gagné d'avance.
 

Citation :

Et c'est vrai que moi aussi je joue encore souvent a de vieux jeux. Un des jeux auquel je joue le plus c'est Quake 3 :D


 
Tiens, j'ai fait une partie de Q3 hiers. Franchement, quand je compare avec UT2003 il n'y a vraiment pas photo. Ok, UT2003 est beau. (Mais quand on regarde bien, Team Arena est très beau aussi). Mais sur Q3 au moins on s'ammuse : L'ergonomie n'a rien a voir.  
 
Malheureusement, et c'est un mal connu depuis très très longtemps, les boites de développeent savent que beaucoup de newbies confondent beau jeu et bon jeu.
Ca me rapelle "Shadow of the Beast" sur Amiga (Et ST). Toute la presse en avait fait l'éloge. Le jeu etait certes beau et très frime (Ah, le scrolling multiplans). Mais franchement quelle nullité a jouer...
Ce jeu etait édité par une société nommé "Psygnosis". A l'époque elle editait beaucoup de jeux tous dans la même veine. Je sais même pas si ils existent encore...
 


---------------
TOPIC PERMANENT Matrox Parhelia
n°2216838
sr16
@*#%$*%§!!
Posté le 13-02-2003 à 20:27:07  profilanswer
 

Ernestor a écrit :

Il est clair que les choix pris dans 3D Mark 2003 suscitent a juste titre pas mal de polemique. En un sens c'est plutot une bonne chose. Si les gens critiquent ce bench, ils l'utiliseront moins et arreteront enfin d'utiliser n'importe comment ce genre de bench qui ne donne aucune info interessante vu la facon dont il est utilise 95% du temps (on se contente de regarder le score global, ce qui n'a aucun interet sauf pour comparer avec d'autres machines et voir si ca config est bien reglee - j'en parle plus dans mon topic 3D Mark de tout ca :  [:ernestor]).
 
Ce qui me fait toujours halluciner c'est que 3D Mark 2001 soit la reference de fait du bench 3D pour enornement de gens. Ca a pas de sens...
Si le 2003 ne suit pas le meme chemin, on aura avancer dans la bonne direction :D
 
Sinon, je suis d'accord avec toi pout UT 2003. De toute facon, il ne faut pas utiliser un seul bench mais plusieurs. Personnelement quand je veux vraiment tester a fond ma config en 3D, je me base souvent sur Quake 3, Serious Sam 2, UT 2003 et 3D Mark 2001 (en regardant les scores en detail, le score global n'a aucun sens).


 
:jap:  
 
C'est clair.
 
Finalement, les meilleurs benchs, c'est encore les jeux auquels on joue...
 
Les autres benchs founissent des indications plus qu'interessantes aussi. C'est ce qu'on aurait aimé avec 3DMark : Qu'il nous en apprenne plus. Malheureusement, ils ont pas abondés assez dans cette logique : On sait pas trop ce que ce test mouline exactement...
 
Cela dit, a défaut d'être de bons outils, ces benchs restent des belles démos amusantes... Le test "nature" du 2001 est vraiment somptueux.
 
La réaction de NVIDIA a ce sujet est claire. La seule chose qu'on peut leur reprocher, c'est que ils étaient bien d'accord tant que ces tests avantageaient leurs cartes....
Mais au moins, maintenant qu'ils sont lésés, ils parlent franchement. Ca fait faux cul. Mais ils ont peut être raison sur ce qu'ils affirment.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2216848
sr16
@*#%$*%§!!
Posté le 13-02-2003 à 20:30:59  profilanswer
 

La gueguerre ATI-NVIDIA me fait d'ailleurs penser a une fabuleuse guerre du passé : La guerre Amiga - Atari.
 
Le plus marant, c'est qu'ils se sont echarpés a mort a coup de dénigrements et de baisse de prix : Ils se sont tués mutuellement et ont déposé leur bilan a quelques mois d'intervale au plus gran dam de tous les possesseurs de ces machines.
 
Une grande leçon : On avait pas l'air con. Ca nous faisait une belle jambe de savoir laquelle était la meilleure.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2219099
sr16
@*#%$*%§!!
Posté le 14-02-2003 à 19:20:42  profilanswer
 

Bon, voila le résultat des tests sous 3DMark 2003.
 
Comme je ne les ai fait que hiers soir assez tard, je n'ai pas pu les publier avant.
 
Bon, le soft est encore plus décevant que ce que je pensait.  
 
Tout d'abord parce que dans la version gratuite on ne peut plus rien parametrer. Ensuite parce que il ne donne pas de résultats détaillés. Ah si, mais faut se connecter au web et envoyer les résultats sans doute. Ou alors se taper la lecture du fichier XML de résultats. C'est ce que j'ai fait.
 
Test Run 1024*768
 
3DMARKS :  :cry: 878 3DMarks :cry:  :fou:  
 
Game tests :
 
GT1 - Wings of Fury : 71.23 fps
GT2 - Battle of Proxycon : 3.80 fps
GT3 - Troll's Lair : 4.63 fps
GT4 - Mother Nature : Laisse béton.
 
CPU Tests
 
Cpu : Intel P4 2ghz sur Asus P4B533 1go Ram Samsung.
 
CPUScore : 320 CPUMarks
CPU Test 1 : 36.14 fps
CPU Test 2 : 5.61 fps
 
Feature Tests
 
Fill Rate (Single-Texturing) : 732 MTexels/s
Fill Rate (Multi-Texturing)  : 2641 MTexels/s
Vertex Shaders : 5.98 fps
Pixel Shader 2.0 : Laisse béton
RagTroll : 1.35 fps
 
Sound Tests.
 
No sound : 30.78 fps
24 Sounds : 25.67 fps
60 Sounds : Not supported (Heink ??? SB-Audigy supporte pas ? )
 


Message édité par sr16 le 14-02-2003 à 19:23:02

---------------
TOPIC PERMANENT Matrox Parhelia
n°2219116
Ernestor
modo-coco :o
Posté le 14-02-2003 à 19:27:37  profilanswer
 

C'est pas terrible :/
 
C'est moins qu'une 8500 ou qu'une GF 3 Ti 500 en tout cas  :(
(pour les resultats des principales cartes : http://www.tt-hardware.com/article.php?sid=3852 )
 
Pour le son, j'ai pas encore vu de configs qui passait le test a 60. Je sais pas ce qu'il faut comme carte son pour ca  :??:


Message édité par Ernestor le 14-02-2003 à 19:37:36

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2219167
noelemac
Posté le 14-02-2003 à 19:46:39  profilanswer
 

Salut tout le monde. (je suis en vacance, enfin  ;) )
 
Pour ceux qui n'ont pas vu la new, la Gforce FX serai non pas de type 8*1 mais 4*2. D'apres NVidia cette config 4*2 est plus performante que la 8*1 dans les jeux actuel.  
Faut pas demander ce que vaut une Fx en 8*1 alors...
 
Toujour d'apres NVidia, la Gforce FX pourai se transformer en 8*1 grace au driver...
 
J'ai pas tout compris la mais bon ...

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  ..  20  21  22  23  24  25

Aller à :
 

Sujets relatifs
parhelia d'occazeSon et Raid integrés, perfs decrus ?
dual head matrox ou nforce2Matrox G400Max et AGP 1,5v
Que dois je faire pour ameliorer mes perfs sous 3 d mark 2001 ?Quel perfs je peux faire avec cette config?
Matrox G200 XPSP1 Accélération matérielle Overlayhd partionné perfs moins bonnes ???
matrox g550: Affichage sur bi-ecran degueulasse ....:(Gros problemes de perfs sur portable
Plus de sujets relatifs à : Les perfs de la Matrox Parhelia


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR