Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1425 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  20  21  22  23  24  25
Auteur Sujet :

Les perfs de la Matrox Parhelia

n°2399306
lichemz
15000 pixels de génie
Posté le 27-04-2003 à 16:49:47  profilanswer
 

Reprise du message précédent :
:whistle:  
Un petit PS : désolé pour la longueur du post, mais vu que les intervenants sur ce topic n'ont apparemment pas peur des longs posts et (c'est plus important) les lisent * en entier *, je pense que personne ne m'en tiendra rigueur :jap:.
 
:hello:


---------------
« Si nous devions gagner sans interruption, nous deviendrions aussi impopulaire que Ferrari, et nous voulons éviter cela. » Flavio Briatore, 06/06/2005
mood
Publicité
Posté le 27-04-2003 à 16:49:47  profilanswer
 

n°2399784
Cydrec
Posté le 27-04-2003 à 20:01:20  profilanswer
 

j ai lu ton post en entier :hello: mon parcours :
 
1. matrox millenium 2 mo pci
2. matrox millenium g400
3. matrox... je sais pas laquelle, surement parhelia
 
 :D

n°2399801
Fendnts
My fading voice sings of love
Posté le 27-04-2003 à 20:07:50  profilanswer
 

'tain le pied si une boite ressortait une bonne carte 3D fille : je me jetterais direct sur la P-650 et je lui adjoindrais cette hypothétique carte fille...
 

n°2399944
lichemz
15000 pixels de génie
Posté le 27-04-2003 à 20:57:01  profilanswer
 

cydrec a écrit :

j ai lu ton post en entier :hello: mon parcours :
 
1. matrox millenium 2 mo pci
2. matrox millenium g400
3. matrox... je sais pas laquelle, surement parhelia
 
 :D  


 
Merci d'avoir lu le post en entier, c'est un morceau de bravoure :D ! Plus sérieusement, j'adore les Matrox (il suffit de prendre une G400 dans la main et de l'examiner pour se rendre compte que niveau qualité, c'est vraiment autre chose que ma GF Ti 4200, fût-elle une Leadtek) et j'espère avoir l'opportunité d'en remettre une dans mon PC un jour.
 
edit> au fait, mon parcours :
1.une vielle carte sur bus VLB (je ne sais pas laquelle, c'est sur un PC que ma tante m'avait donné).
2. S3 Virge DX
3. Matrox Millenium
4. Matrox Mystique
5. Radeon 64 VIVO
6. GF4 Ti 4200
7. ??? Parhélia 2 ??? :)


Message édité par lichemz le 27-04-2003 à 20:59:38

---------------
« Si nous devions gagner sans interruption, nous deviendrions aussi impopulaire que Ferrari, et nous voulons éviter cela. » Flavio Briatore, 06/06/2005
n°2400125
lichemz
15000 pixels de génie
Posté le 27-04-2003 à 22:10:30  profilanswer
 

fendnts a écrit :

'tain le pied si une boite ressortait une bonne carte 3D fille : je me jetterais direct sur la P-650 et je lui adjoindrais cette hypothétique carte fille...
 
 


 
En effet, rien ne me ferait plus plaisir que de pouvoir compter sur une qualité 2D CONSTANTE et de ne me contenter que de faire évoluer la puissance 3D.
 
En dehors du fait que ça rendrait le système plus stable (au moins, les drivers pour la carte 2D ne changent pas tous les jours et une fois au point, sont très stables), cela permettrait aux fabricants de cartes 3D de pouvoir se concentrer sur des pilotes efficaces et qui ne polluent pas le système.
 
Je me souviens que du temps de mes Voodoo 1 et 2, il n'y avait pas cette course aux drivers que l'on observe aujourd'hui : les drivers de mes 3DFX étaient très stables, et les fichiers en nombre très réduit (ceux qui ont installé une ATI au temps des drivers du type 4.10.7075 savent de quoi je parle : une centaine de fichiers différents; je n'ai pas connu les Catalyst, peut-être cela a-t-il changé), qui facilitaient la "maintenance". Il était même possible de récupérer un fichier d'une version des drivers pour remplacer celui d'une autre version.
 
Dernier avantage : un tel système permet de brancher son moniteur sur la carte 2D, et ce qu'on veut sur la carte 3D (un 2nd moniteur ou la télé par exemple), ce qui permet d'éviter une mauvaise qualité d'image (sur le moniteur principal) due aux câbles VGA fournis avec les cartes filles (celui de ma Voodoo2 était tellement mauvais que j'ai dû le remplacer).


---------------
« Si nous devions gagner sans interruption, nous deviendrions aussi impopulaire que Ferrari, et nous voulons éviter cela. » Flavio Briatore, 06/06/2005
n°2400410
sr16
@*#%$*%§!!
Posté le 28-04-2003 à 00:18:09  profilanswer
 

Pour répondre a Lichem:
 
Il est clair que dans le processus de commercialisation de la Parhelia il y a eu de très grosses erreurs. Ces erreurs ne sons surement pas fortuites. Je pense qu'elles sont le reflet d'une crise chez Matrox.
 
D'abord quelques infos sur la société Matrox. Contrairement a ce qu'on peut penser, c'est une société de taille comparable a ATI et NVIDIA en nombre d'employés. Mais contrairement a ces deux dernières, Matrox a des produits plus diversifiés.
 
Le business plan n'est pas le même. Matrox fut une société connue avant ATI et NVIDIA. Ils ont privilégié un développement dans le temps contrairement a ATI et NVIDIA qui ont misé sur la croissance rapide par le biais de levées de fond colossales.
Il semblerait que ces levées de fond ont permis a ATI et NVIDIA de débaucher a prix d'or certains des meilleurs ingénieurs de Matrox, si bien qu'on peut se demander si les auteurs de la fabuleuse G400 ne sont pas dans l'equipe qui a fabriqué la 9700Pro ou la GeForce FX.
 
Clairement aussi, avec la Parhelia, Matrox a eu les yeux plus gros que le ventre. Dans leurs annonces, c'est pas la modestie qui rssort le plus :
 

Citation :

Matrox Graphics Inc., the leading manufacturer of professional graphics solutions, today announced the Matrox Millennium P-Series graphics boards, setting a new standard for graphics accelerators catering to the unique needs of hardware and software non-linear editors. Based on the new Parhelia-LX chip, derived from Matrox Parhelia? technology, the Millennium P-Series is a cost effective graphics solution designed to radically enhance video editing workflow through advanced multi-display technologies.  
?Five years ago, Matrox introduced DualHead, which transformed the standard graphics configuration for video workstations?, says Caroline Injoyan, video workstation product manager, Matrox Graphics Inc. ?Today, Matrox raises the bar once again with the Millennium P-Series, by bringing next-generation advancements such as Dual-display plus TV output and TripleHead technology to all levels of video workstation users.?


 
Leur blabla commercial est a l'évidence un peu trop en décalage avec la réalité. Et un peu plus de modestie serait bienvenue. Je crois que de nos jours, les gens veulent des faits, et non des mots.
 
Ce qui parait curieux dans l'affaire de la Parhelia, c'est de savoir pourquoi ils ont fait cela.
D'une certaine manière, on peut supposer qu'il est très difficile de connaitre la réalité d'un chip avant de l'avoir fabriqué, sorti et programmé les drivers.
Comme il s'agissait du premier chip a 256 bits en externe et que les performances découlent de beaucoup de facteurs, il est probable qu'ils se sont plantés et bien plantés par rapport a ce qu'ils pensaient en tirer.
 
Ce qu'il faut bien se représenter pour comprendre tout ça, c'est la profonde scission entre les commerciaux et les techniciens. Le technicien travaille et le commercial communique... et les deux ont du mal a se comprendre.
Le commercial mets la pression au technicien pour avoir des infos pour batir la communication sur le produit. Et le technicien qui ne sait pas encore vraiment ce qu'il va pouvoir tirer du produit ne peut pas empêcher le commercial de faire des plans sur la commète. Car vendre, c'est faire rêver. Mais attention a l'aterrissage....
 
Il est clairement evident que Matrox s'attendait a pouvoir en faire un produit pour joueurs. Et quand ils ont sû pour les performances, au lieu d'adopter un profil plus bas, ils ont continué a jouer les fiers. Clairement ça n'était pas malin de leur part. Si ils avaient préparé le terrain en disant que la Parhelia n'était pas un produit destiné au jeu, il est probable que les testeurs n'auraient pas fantasmé autant sur cette CG et qu'ils auraient été moins déçu.
 
Mais dans un sens le pire, c'est qu'ils n'ont pas tout a fait tort. Sauf que c'est une carte qui est super pour ..... les joueurs qui veulent une Matrox et sa qualité 2D.
C'est une nuance importante, mais dans l'esprit des gens, cette précision a manqué. Car elle n'était effectivement nulle part dans le discours de Matrox.
 
Il est evident qu'ils s'attendaient a mieux de cette carte et que le mieux n'étant pas au rendez vous, ils n'ont pas su s'adapter.
 
Clairement, je pense que Matrox fait une crise d'identité. il est clair que ce revirement vers les produits 100% pro découle de l'echec de la Parhelia.  
Si ils avaient pu la vendre aux joueurs, ils l'auraient fait.
 
Malheureusement pour Matrox, je pense que c'est une mauvaise décision si ils s'en tiennent la.  
L'echec de la Parhelia tient finalement a peu de choses : Une architecture 4x4 peu en adéquation avec les jeux actuels et surtout un manque de HSR (Contrairement a ce qu'on a pu croire, les contrôleurs mémoire seraient très performants, se situant en perfs entre NVIDIA et ATI). J'en reparlerais.  
Mais il est evident que si aujourd'huis la 3D sers aux jeux, demain elle servira pour tout. Le problème de la qualité 2D est en passe de vivre ses dernières années avec les écrans DVI-D qui baissent de prix de jour en jour. Bref, quand un écran LCD 1600x1200 avec une rémanence acceptable et une colorimétrie correcte sera a un prix acceptable, ça en sera fini de ce problème.
Bref, Matrox ferait bien de se magner le train pour recoller aux 2 autres, ou ils iront planter des choux.
Certes, le business plan de Matrox a toujours été "Nous faisons moins dans la performance et plus dans la stabilité". Clairement, c'est ce que veulent les industriels. Parce que les cartes qui changent tous les 2 mois avec un coup une carte qui marche, l'autre coup une carte qui pose tel ou tel problème on en veut pas.  
Mais c'est malheureusement le client qui dicte ses désidératas. Et le jour ou une Matrox ne fera plus ce que veut le client pro parce que la 3D sera omniprésente dans toutes les applis, ce jour la Matrox a interet a ne pas avoir trop décollé du peloton.
 
Pour ce qui est de la Parhelia, ça reste tout de même une bonne carte de jeu. Trop chère il est vrai. Il faut bien avouer que même si sur le terrain elle avoue quand même une supériorité face a une Radeon 8500, la différence de prix est telle que peu de gens l'acheterons.
 
La question qui se pose egalement est la suivante : Que vaudra la Parhelia dans le temps.
 
En réalité, la réponse est mitigée. Le meilleur et le pire.
 
Alors qu'on s'attendait a une meilleur performance avec la complexification des jeux, 3DMark 2003 a jeté le trouble. Bien que dans l'optique de ce bench, la R8500 et GF4TI4600 ne font guère beaucoup mieux, le score particulièrement mauvais de la Parhelia amène a se poser des questions.
Clairement, si 3DMark 2003 annonce les jeux du futur, la Parhelia ne vaudra rien. Est ce vrai ? Réponse, oui et non.
La question que tout le monde s'est posé, c'est de savoir pourquoi elle tient un score aussi mauvais sur ce bench.
La réponse est la suivante : Stencil Buffer.
 
Comme toute les cartes, la parhelia est munie d'un stencil buffer. C'est une sorte de buffer qui permet de masquer des parties de scenes pour ne rendre que des morceaux. 3DMark 2003 en ferait un usage intensif pour certains effets.
Mais on a parlé de masquer. Et masquer n'est pas le point fort de la parhelia. Rappelez vous : La Parhelia n'a pas de HSR et au contraire d'une R9700 elle va effectuer tout le rendu des parties masquées, ce qui ecroule complètement la carte dès lors que quelques effets de ce type sont utilisés.
 
Alors si les jeux du futur utilisent ce type d'effet, la Parhelia est cuite. Réponse : oui.
 
Mais la, il faut distinguer deux types de jeux. Les jeux OpenGL et les jeux DirectX.
Pour OpenGL, il semble que ce type d'effets soit supporté depuis plus longtemps que DirectX ou c'est l'appanage de DirectX9.0.
 
Soyons clair, il semble que Doom III fait une utilisation massive du stencil buffer a l'image de 3DMark. John carmack a déclaré que le problème de la Parhelia se situait la. Et que si la Parhelia tourne un peu plus vite que sous 3DMark (On imagine bien que sinon il y a peu de CG qui supporteront) ça sera tout de même pas bezef. Pour info, sur la version alpha de Doom III, la parhelia fait .... 10fps !!! Cela dit, les GF4 et les R8500 seront peut être bien devant mais sans que ça soit réellement bezef.
Donc clairement, je pense que pour ce jeu, c'est cuit. Personellement, je ne pense pas que Carmack puisse y faire quoi que ce soit car l'architecture de son jeu ne peut surement pas se changer ainsi.
Certains critiquent ce choix. Car ça n'est pas uniquement la Parhelia qui souffrira, mais toutes les cartes qui ont un maivais support du HSR. Ca inclut des cartes comme la Radeon 9500 non pro, voir certaines NVIDIA d'entrée de gamme dont les perfs avec parties cachées sont a peine supérieures aux perfs quand les polygones sont visibles.
Ne parlons même pas des MX440 qui sont encore bien vendues et dont le chip equipe encore beaucoup de portables neufs.
 
D'un autre côté, l'extrème inverse se verra. On a vu très longtemps des jeux fabuleux se contenter de vielles versions de DirectX. Et les jeux DirectX qui utiliseront une version de DirectX avant la 9.0 ne feront pas usage de ce fameux truc qui fait tant bobo a la Matrox. Autant dire qu'on y est pas encore. Et sur PC, une grande majorité des jeux sont DirectX plutot que OpenGL.
 
Pour conclure, je dirais que malgré les erreurs de Matrox et malgré les problèmes de ce produit (Banding & co), la Parhelia est un produit qui saura rendre de grands service aux quelques utilisateurs pour laquelle elle est adaptée. Paradoxalement, Matrox n'a pas tout a fait tort sur le fait que ce sont des utilisateurs qui veulent jouer qui l'acheterons : Le forum Matrox me le confirme (Ceux qui n'ont pas besoin de jouer ont gardé leur G400....). Bien sûr, on ne peut pas parler de purs gammers mais plutot d'oiseaux bizarres comme moi qui sont a cheval entre l'utilisation pro et le jeu et pour lequel seul la Parhelia offre aujourd'huis une réponse au moins satisfaisante a défaut d'être parfaite.
 
Je pense aussi que sa durée de vie sera descente. Clairement, certains choix architecturaux dans certains jeux pouront la mêtre a mal. Mais ils mettront egalement a mal une grande partie des CG du marché : Les acheteurs de R9700 et de Gf-FX sont quand même rares par rapport a tous ceux qui ont achetés une... MX-440.
 
Certains auteurs de jeux sont clairement sponsorisés par ATI ou NVIDIA : Ces fabricants ont réellement besoin de l'apparition de nouveaux jeux très gourmands pour forcer la population des gammers a changer sa CG. Ca n'est pas le cas de tous les programmeurs, ni de toutes les boites de jeux.
De très nombreux jeux continuent a n'exploiter que les fonctionnalités de DirectX 7.0. Il est evident que le basculement ne se fera que des lors que le marché aura évolue. Car foncièrement, si les nouvelles fonctions graphiques peuvent apporter de réels et incontestables evolutions sur le long terme, sur le court et moyen terme l'interet entre différents jeux ne tient pas a cela. Il est tout a fait possible de faire d'excellents jeux en DirectX 7.0.
 
Quand a l'avenir de Matrox, j'espère sincèrement pour eux qu'ils n'ont pas mis au rancard les espoirs de produire le "pitou" comme certaines rumeurs l'ont affirmé.  
Mais après tout, l'avenir de Matrox n'est pas un critère de choix dans la décision d'achat d'une Parhelia.
Si Matrox change de fusil d'épaule et que dans 2 ans, je doit changer de CG et choisir autre chose, le choix sera a reconsidérer a ce moment la. La donne aura peut être changé.
 
Clairement, c'est dommage que la fonction 3D ait fusionné avec le chip 2D. Pourtant ça serait possible et même très facile de faire en sorte que l'accélérateur 3D transmette l'image finale par un bus spécial dans la mémoire écran du chip 2D une fois l'image terminée.
Mais la tendance architecturale des systèmes va vers l'integration. Pour le bas de gamme du moins, on verra surement de plus en plus de PC integrant un maximum de fonctions dans un minimum de chips.


Message édité par sr16 le 28-04-2003 à 00:25:56

---------------
TOPIC PERMANENT Matrox Parhelia
n°2401294
Cydrec
Posté le 28-04-2003 à 14:18:15  profilanswer
 

vous partez tous dans de longues considerations, mais il y a un facteur que tout le monde omet : a performances inferieures, mais au prix d une geforce 3, j aurais achete le parhelia depuis longtemps !!!
 
 :cry:

n°2402488
sr16
@*#%$*%§!!
Posté le 28-04-2003 à 20:58:20  profilanswer
 

cydrec a écrit :

vous partez tous dans de longues considerations, mais il y a un facteur que tout le monde omet : a performances inferieures, mais au prix d une geforce 3, j aurais achete le parhelia depuis longtemps !!!
 
 :cry:  


 
Tu as raison sur ce point.
 
Beaucoup d'utilisateurs des Matrox type G400 et G550 seraient assez contents d'une carte qui proposerait déja un bon en avant question possibilités tout en conservant la qualité qui a fait la réputation de la G400.
 
Il est clair aussi que la G550 n'était pas une upgrade significative même si il me semble qu'elle dispose de plus d'unités de textures que la G400, lui permetant dans la pratique d'aligner un peu plus de puissance dans les jeux.
 
Je pense que pour cela, les P650/P750 seront parfaites. Question prix, on se situera a un peu plus de 1000 francs pour la P650 et avec des possibilités quand même bien acrues par rapport a la G400.  
 
L'avenir nous dira si ces cartes tiennent leurs promesses. Dommage que l'on ait pas encore de benchs disponibles.
 
Je pense que tu as raison : Matrox a du s'appercevoir qu'ils continuaient a bien vendre la G550 alors que la Parhelia pas du tout.  
 
Question : A quels jeux joues tu ou compte tu jouer ?


Message édité par sr16 le 28-04-2003 à 21:00:31

---------------
TOPIC PERMANENT Matrox Parhelia
n°2402490
lichemz
15000 pixels de génie
Posté le 28-04-2003 à 20:58:47  profilanswer
 

cydrec a écrit :

vous partez tous dans de longues considerations, mais il y a un facteur que tout le monde omet : a performances inferieures, mais au prix d une geforce 3, j aurais achete le parhelia depuis longtemps !!!
 
 :cry:  


 
Cela me paraît relativement évident. La Parhélia n'est pas une mauvaise carte, mais vendue beaucoup trop cher pour ce qu'elle a à offrir (même en regard de ce qu'elle promettait).
 
D'une part, le marché pro, même s'il peut faire fi d'un prix élevé, est par trop restreint.
 
D'autre part, le marché des gamers auquel elle était originalement destinée ne peut se satisfaire d'un tel prix pour des telles performances, et n'accorde que peu d'importance aux arguments de qualité de fabrication ou d'affichage, à une époque où la durée de vie moyenne d'une carte graphique ludique est de 2 ans au plus.


---------------
« Si nous devions gagner sans interruption, nous deviendrions aussi impopulaire que Ferrari, et nous voulons éviter cela. » Flavio Briatore, 06/06/2005
n°2402647
blazkowicz
Posté le 28-04-2003 à 21:38:05  profilanswer
 

Sr16 a écrit :


 
La question qui se pose egalement est la suivante : Que vaudra la Parhelia dans le temps.
 
En réalité, la réponse est mitigée. Le meilleur et le pire.
 
Alors qu'on s'attendait a une meilleur performance avec la complexification des jeux, 3DMark 2003 a jeté le trouble. Bien que dans l'optique de ce bench, la R8500 et GF4TI4600 ne font guère beaucoup mieux, le score particulièrement mauvais de la Parhelia amène a se poser des questions.
Clairement, si 3DMark 2003 annonce les jeux du futur, la Parhelia ne vaudra rien. Est ce vrai ? Réponse, oui et non.
La question que tout le monde s'est posé, c'est de savoir pourquoi elle tient un score aussi mauvais sur ce bench.
La réponse est la suivante : Stencil Buffer.
 
Comme toute les cartes, la parhelia est munie d'un stencil buffer. C'est une sorte de buffer qui permet de masquer des parties de scenes pour ne rendre que des morceaux. 3DMark 2003 en ferait un usage intensif pour certains effets.
Mais on a parlé de masquer. Et masquer n'est pas le point fort de la parhelia. Rappelez vous : La Parhelia n'a pas de HSR et au contraire d'une R9700 elle va effectuer tout le rendu des parties masquées, ce qui ecroule complètement la carte dès lors que quelques effets de ce type sont utilisés.
 
Alors si les jeux du futur utilisent ce type d'effet, la Parhelia est cuite. Réponse : oui.
 
Mais la, il faut distinguer deux types de jeux. Les jeux OpenGL et les jeux DirectX.
Pour OpenGL, il semble que ce type d'effets soit supporté depuis plus longtemps que DirectX ou c'est l'appanage de DirectX9.0.
 
Soyons clair, il semble que Doom III fait une utilisation massive du stencil buffer a l'image de 3DMark. John carmack a déclaré que le problème de la Parhelia se situait la. Et que si la Parhelia tourne un peu plus vite que sous 3DMark (On imagine bien que sinon il y a peu de CG qui supporteront) ça sera tout de même pas bezef. Pour info, sur la version alpha de Doom III, la parhelia fait .... 10fps !!! Cela dit, les GF4 et les R8500 seront peut être bien devant mais sans que ça soit réellement bezef.
Donc clairement, je pense que pour ce jeu, c'est cuit. Personellement, je ne pense pas que Carmack puisse y faire quoi que ce soit car l'architecture de son jeu ne peut surement pas se changer ainsi.
Certains critiquent ce choix. Car ça n'est pas uniquement la Parhelia qui souffrira, mais toutes les cartes qui ont un maivais support du HSR. Ca inclut des cartes comme la Radeon 9500 non pro, voir certaines NVIDIA d'entrée de gamme dont les perfs avec parties cachées sont a peine supérieures aux perfs quand les polygones sont visibles.
Ne parlons même pas des MX440 qui sont encore bien vendues et dont le chip equipe encore beaucoup de portables neufs.
 
D'un autre côté, l'extrème inverse se verra. On a vu très longtemps des jeux fabuleux se contenter de vielles versions de DirectX. Et les jeux DirectX qui utiliseront une version de DirectX avant la 9.0 ne feront pas usage de ce fameux truc qui fait tant bobo a la Matrox. Autant dire qu'on y est pas encore. Et sur PC, une grande majorité des jeux sont DirectX plutot que OpenGL.


 
mouais c'est du pipo ce que tu nous dis là :p
 
le stencil buffer c'est un truc très vieux, il est supporté par ma voodoo2 (et peut-être la voodoo1?) et par directX 7, et 6 aussi probablement
 
des jeux tels splinter cell et operation flashpoint en font usage pour les ombres
 
ainsi que jedi knight II et Kingpin (jeux openGL c vrai mais bon ce dernier est qd-même sur le moteur de Quake2 :) )
 
je parie que la parhelia se ramasse sur splinter
 
de plus les stencil buffers empêchent l'utilisation du FAA :wahoo:


Message édité par blazkowicz le 28-04-2003 à 21:39:30
mood
Publicité
Posté le 28-04-2003 à 21:38:05  profilanswer
 

n°2402746
lichemz
15000 pixels de génie
Posté le 28-04-2003 à 22:10:49  profilanswer
 

A SR16 :
 
1. penses-tu (pas la peine de nous vouvoyer, hein ? ;)) que l'une ou l'autre des 3 grands fabricants de cartes graphiques pourrait réintroduire une carte 3d fille ? Je n'y crois pas trop, mais je voudrais avoir ton avis sur le sujet.
 
2. quel type de carte 3D * ludique * Matrox va-t-il sortir la prochaine fois (en clair, la Parhélia "2" ) et selon toi, quels pourraient être les choix de Matrox autant en termes de puissance que d'architecture pour contrer les mastodontes que ne manqueront pas de sortir à ce moment là ATI et NVidia ?
 
Car rien ne sert de sortir des CG haut de gamme si c'est uniquement pour jouer les faire-valoirs. Je pense que si Matrox veut se refaire une image auprès du marché des joueurs, ils devront adopter une politique plus tournée sur les performances et, surtout, un cycle de renouvellement bien plus court (même si les cycles des produits ont tendance à se rallonger ces derniers temps, cf. ATi qui ne sortira son R400 qu'en 2004).
 
Dans le cas contraire, Matrox pourrait disparaître complètement du monde de la 3D ludique d'ici peu, compte tenu de l'accélération des performances des cartes graphiques et la complexité graphique croissante des jeux.
Maintenant, il est vrai que Matrox n'a peut-être pas besoin du marché de la 3D ludique, vu la diversification de leur gamme et l'eexcellence de leurs cartes.
 
PS : un exemple : pour ceux qui connaissent, un de mes amis graphistes possède une solution Matrox RT 2000, et le moins que je puisse vous dire est que cette carte dégage une puissance peu commune, permettant d'appliquer des effets très complexes en temps réel à des vidéos en flux continu, ou même d'associer 2 flux vidéo avec des filtres de transition en temps réel (oui, j'ai eu droit à une démo et oui, j'ai été bluffé, et ce dont je vous parle date de 2 ans). Bref, et je crois que c'est ce genre de choses dont parlait SR16 quand il citait des cartes dont ne rêvent même pas encore ATi et Nvivia, c'est là un ensemble dont la qualité et la puissance n'a vraiment rien à envier à la plus performante des puces 3D.


---------------
« Si nous devions gagner sans interruption, nous deviendrions aussi impopulaire que Ferrari, et nous voulons éviter cela. » Flavio Briatore, 06/06/2005
n°2402814
Zeross
Posté le 28-04-2003 à 22:31:15  profilanswer
 

Citation :

Alors qu'on s'attendait a une meilleur performance avec la complexification des jeux, 3DMark 2003 a jeté le trouble. Bien que dans l'optique de ce bench, la R8500 et GF4TI4600 ne font guère beaucoup mieux, le score particulièrement mauvais de la Parhelia amène a se poser des questions.
Clairement, si 3DMark 2003 annonce les jeux du futur, la Parhelia ne vaudra rien. Est ce vrai ? Réponse, oui et non.
La question que tout le monde s'est posé, c'est de savoir pourquoi elle tient un score aussi mauvais sur ce bench.
La réponse est la suivante : Stencil Buffer.
 
Comme toute les cartes, la parhelia est munie d'un stencil buffer. C'est une sorte de buffer qui permet de masquer des parties de scenes pour ne rendre que des morceaux. 3DMark 2003 en ferait un usage intensif pour certains effets.
Mais on a parlé de masquer. Et masquer n'est pas le point fort de la parhelia. Rappelez vous : La Parhelia n'a pas de HSR et au contraire d'une R9700 elle va effectuer tout le rendu des parties masquées, ce qui ecroule complètement la carte dès lors que quelques effets de ce type sont utilisés.
 
Alors si les jeux du futur utilisent ce type d'effet, la Parhelia est cuite. Réponse : oui.
 
Mais la, il faut distinguer deux types de jeux. Les jeux OpenGL et les jeux DirectX.
Pour OpenGL, il semble que ce type d'effets soit supporté depuis plus longtemps que DirectX ou c'est l'appanage de DirectX9.0.
 
Soyons clair, il semble que Doom III fait une utilisation massive du stencil buffer a l'image de 3DMark. John carmack a déclaré que le problème de la Parhelia se situait la. Et que si la Parhelia tourne un peu plus vite que sous 3DMark (On imagine bien que sinon il y a peu de CG qui supporteront) ça sera tout de même pas bezef. Pour info, sur la version alpha de Doom III, la parhelia fait .... 10fps !!! Cela dit, les GF4 et les R8500 seront peut être bien devant mais sans que ça soit réellement bezef.
Donc clairement, je pense que pour ce jeu, c'est cuit. Personellement, je ne pense pas que Carmack puisse y faire quoi que ce soit car l'architecture de son jeu ne peut surement pas se changer ainsi.
Certains critiquent ce choix. Car ça n'est pas uniquement la Parhelia qui souffrira, mais toutes les cartes qui ont un maivais support du HSR. Ca inclut des cartes comme la Radeon 9500 non pro, voir certaines NVIDIA d'entrée de gamme dont les perfs avec parties cachées sont a peine supérieures aux perfs quand les polygones sont visibles.
Ne parlons même pas des MX440 qui sont encore bien vendues et dont le chip equipe encore beaucoup de portables neufs.
 
D'un autre côté, l'extrème inverse se verra. On a vu très longtemps des jeux fabuleux se contenter de vielles versions de DirectX. Et les jeux DirectX qui utiliseront une version de DirectX avant la 9.0 ne feront pas usage de ce fameux truc qui fait tant bobo a la Matrox. Autant dire qu'on y est pas encore. Et sur PC, une grande majorité des jeux sont DirectX plutot que OpenGL.


 
Je suis d'accord avec ta conclusion : la Parhelia n'est pas faîte pour ce genre de techniques d'ombres volumétriques. Je ne suis par contre absolument pas d'accord avec ton raisonnement : à mon avis ce n'est pas l'absence de HSR qui l'handicape ici mais une raison toute bête : le fill rate !
 
De toute façon ATI l'a indiqué le Z hiérarchique est désactivé lors de l'utilisation d'un stencil buffer et de toute façon il n'a aucun intérêt le but est de vraiment rendre les polygones mêmes ceux qui sont cachés c'est ainsi que fonctionne l'algo ! Si tu rejettes des polygones qui seront cachés avant la fin du pipeline ça n'a plus aucun sens. Le HSR n'a strictement aucune influence ici...
 
Par contre si l'on y regarde de plus près le fonctionnement du moteur de Doom III : tout d'abord il y a une initialisation du Z Buffer en rendant la scène sans texture et sans éclairage ensuite l'écriture dans le ZBuffer est désactivé. Pas de texture les TMU de la Parhelia ne servent à rien, pas de textures : peu de bande passante utilisée le bus 256bits de la Parhelia ne sert à rien. Continuons : la deuxième passe consiste à rendre les volumes d'ombre là encore c'est une passe qui ne demande pas de bande passante mais beaucoup de fill rate à cause de l'overdraw que celà va générer encoer une fois c'est clairement au désavantage de la Parhelia.
 
Bref le HSR n'a rien à voir là dedans par contre le fill rate bien trop juste y est sans doute pour quelque chose.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2404680
sr16
@*#%$*%§!!
Posté le 29-04-2003 à 17:35:40  profilanswer
 

Zeross a écrit :

Citation :

Alors qu'on s'attendait a une meilleur performance avec la complexification des jeux, 3DMark 2003 a jeté le trouble. Bien que dans l'optique de ce bench, la R8500 et GF4TI4600 ne font guère beaucoup mieux, le score particulièrement mauvais de la Parhelia amène a se poser des questions.
Clairement, si 3DMark 2003 annonce les jeux du futur, la Parhelia ne vaudra rien. Est ce vrai ? Réponse, oui et non.
La question que tout le monde s'est posé, c'est de savoir pourquoi elle tient un score aussi mauvais sur ce bench.
La réponse est la suivante : Stencil Buffer.
 
Comme toute les cartes, la parhelia est munie d'un stencil buffer. C'est une sorte de buffer qui permet de masquer des parties de scenes pour ne rendre que des morceaux. 3DMark 2003 en ferait un usage intensif pour certains effets.
Mais on a parlé de masquer. Et masquer n'est pas le point fort de la parhelia. Rappelez vous : La Parhelia n'a pas de HSR et au contraire d'une R9700 elle va effectuer tout le rendu des parties masquées, ce qui ecroule complètement la carte dès lors que quelques effets de ce type sont utilisés.
 
Alors si les jeux du futur utilisent ce type d'effet, la Parhelia est cuite. Réponse : oui.
 
Mais la, il faut distinguer deux types de jeux. Les jeux OpenGL et les jeux DirectX.
Pour OpenGL, il semble que ce type d'effets soit supporté depuis plus longtemps que DirectX ou c'est l'appanage de DirectX9.0.
 
Soyons clair, il semble que Doom III fait une utilisation massive du stencil buffer a l'image de 3DMark. John carmack a déclaré que le problème de la Parhelia se situait la. Et que si la Parhelia tourne un peu plus vite que sous 3DMark (On imagine bien que sinon il y a peu de CG qui supporteront) ça sera tout de même pas bezef. Pour info, sur la version alpha de Doom III, la parhelia fait .... 10fps !!! Cela dit, les GF4 et les R8500 seront peut être bien devant mais sans que ça soit réellement bezef.
Donc clairement, je pense que pour ce jeu, c'est cuit. Personellement, je ne pense pas que Carmack puisse y faire quoi que ce soit car l'architecture de son jeu ne peut surement pas se changer ainsi.
Certains critiquent ce choix. Car ça n'est pas uniquement la Parhelia qui souffrira, mais toutes les cartes qui ont un maivais support du HSR. Ca inclut des cartes comme la Radeon 9500 non pro, voir certaines NVIDIA d'entrée de gamme dont les perfs avec parties cachées sont a peine supérieures aux perfs quand les polygones sont visibles.
Ne parlons même pas des MX440 qui sont encore bien vendues et dont le chip equipe encore beaucoup de portables neufs.
 
D'un autre côté, l'extrème inverse se verra. On a vu très longtemps des jeux fabuleux se contenter de vielles versions de DirectX. Et les jeux DirectX qui utiliseront une version de DirectX avant la 9.0 ne feront pas usage de ce fameux truc qui fait tant bobo a la Matrox. Autant dire qu'on y est pas encore. Et sur PC, une grande majorité des jeux sont DirectX plutot que OpenGL.


 
Je suis d'accord avec ta conclusion : la Parhelia n'est pas faîte pour ce genre de techniques d'ombres volumétriques. Je ne suis par contre absolument pas d'accord avec ton raisonnement : à mon avis ce n'est pas l'absence de HSR qui l'handicape ici mais une raison toute bête : le fill rate !
 
De toute façon ATI l'a indiqué le Z hiérarchique est désactivé lors de l'utilisation d'un stencil buffer et de toute façon il n'a aucun intérêt le but est de vraiment rendre les polygones mêmes ceux qui sont cachés c'est ainsi que fonctionne l'algo ! Si tu rejettes des polygones qui seront cachés avant la fin du pipeline ça n'a plus aucun sens. Le HSR n'a strictement aucune influence ici...
 
Par contre si l'on y regarde de plus près le fonctionnement du moteur de Doom III : tout d'abord il y a une initialisation du Z Buffer en rendant la scène sans texture et sans éclairage ensuite l'écriture dans le ZBuffer est désactivé. Pas de texture les TMU de la Parhelia ne servent à rien, pas de textures : peu de bande passante utilisée le bus 256bits de la Parhelia ne sert à rien. Continuons : la deuxième passe consiste à rendre les volumes d'ombre là encore c'est une passe qui ne demande pas de bande passante mais beaucoup de fill rate à cause de l'overdraw que celà va générer encoer une fois c'est clairement au désavantage de la Parhelia.
 
Bref le HSR n'a rien à voir là dedans par contre le fill rate bien trop juste y est sans doute pour quelque chose.


 
J'ignore ce que vaut la vitesse de la parhelia sans texturing.
Le seul test dont on dispose est celui fait en page 13 avec ShaderMark qui fait le test en gouraud shading. La comparaison est avec une R9700Pro.
 


Matrox Dx8F | Matrox Dx9F || ATI Dx8F | ATI Dx9F
 
Gouraud Shading........................ : 104.43  | 110.86 || 93 | 146
Diffuse Texture Mapping................ :  92.75  |  97.96 || 92 | 143
Diffuse Bump Mapping................... :  65.17  |  67.88 || 81 | 118
PS 1.0 Cubic Environnment Bump Mapping. :  59.48  |  63.41 || 77 | 111
PS 1.1 Bumped Diffuse + Specular....... :  48.02  |  47.48 || 75 | 97
PS 1.1 Per Pixel Anisotropic Lightning. :  48.05  |  49.28 || 74 | 94
PS 1.1 Cubic Environnment Reflections.. :  40.67  |  36.72 || 67 | 84
 
 
Ecart en % par rapport au R300:
Gouraud Shading........................ :  12% | -23%
Diffuse Texture Mapping................ :   0% | -31%
Diffuse Bump Mapping................... : -19% | -42%
PS 1.0 Cubic Environnment Bump Mapping. : -23% | -43%
PS 1.1 Bumped Diffuse + Specular....... : -36% | -51%
PS 1.1 Per Pixel Anisotropic Lightning. : -35% | -48%
PS 1.1 Cubic Environnment Reflections.. : -40% | -56%


 
Mais tu me dira que c'est vrai qu'on ignore les conditions exactes du test et donc, je sait que ça n'est probant de rien du tout.
 
Je suis etonné de ce que tu dis a propos du stencil buffer, mais après tout, je ne connais pas réellement le détail de son fonctionnement. Les propos que j'ai reporté sont ceux rapportés par des proches de J.Carmack. Cela dit, ils peuvent être sujets a caution comme semble être sujet a caution ce que déclare le dit J.Carmack vu que l'on a déja vu déclarer tout et son contraire a quelques jours d'interval.
 
D'après ce que j'en ai compris, le stencil buffer sers a masquer le rendering d'une partie de l'image. Il semble pouvoir servir a tout suivant l'usage. Il semble souvent être utilisé pour faire les ombrages. Est ce cela que tu décrit en parlant de première phase de rendering ?
La gestion des ombres semble se faire en 2 phases : 1 première en render des ombres dans le stencil buffer et une deuxième en render de polygones.
J'ai pas encore compris tout le détail, mais j'ai lu un bout de code qui effectuait ça sous DirectX. Pour le render dans le Stencil, on désactive effectivement le Z-Buffer et pour la passe de render des polygones en utilisant le stencil, le Z-Buffer est réactivé.
 
Donc, est tu certain que tu ne confonds pas entre render dans le stencil (Ou les Z-XXXXX optimisations seraient désactivées) et render en utilisant le stencil.
 
Dans le second cas, vu qu'a priori le stencil indique clairement des zones a ne pas rendre, on peut clairement eliminer les polygones qui n'y sont pas, non ?
 
Sinon ça voudrait dire aussi qu'utiliser le stencil = grosse perte de performance sur les ATI haut de gamme ?
 
Pour ce qui est du Fill-Rate de la Parhelia, je me demande d'ou vient le fait qu'elle ne dispose que de 800mb/s de fille rate en single texturing. C'est bizarre quand même avec 4 pixels pipelines.
 


---------------
TOPIC PERMANENT Matrox Parhelia
n°2404707
sr16
@*#%$*%§!!
Posté le 29-04-2003 à 17:49:41  profilanswer
 

lichemz a écrit :

A SR16 :
 
1. penses-tu (pas la peine de nous vouvoyer, hein ? ;)) que l'une ou l'autre des 3 grands fabricants de cartes graphiques pourrait réintroduire une carte 3d fille ? Je n'y crois pas trop, mais je voudrais avoir ton avis sur le sujet.


 
Non, mais l'avenir sera au DVI-D, la partie Ramdac migrera dans le moniteur. Déja ça sera un problème de moins sur les ATI-NVIDIA.
 

Citation :

2. quel type de carte 3D * ludique * Matrox va-t-il sortir la prochaine fois (en clair, la Parhélia "2" ) et selon toi, quels pourraient être les choix de Matrox autant en termes de puissance que d'architecture pour contrer les mastodontes que ne manqueront pas de sortir à ce moment là ATI et NVidia ?


 
Je l'ignore. Je bosse pas chez Matrox. Mais vu certaines rumeurs je ne sait même pas si il y en aura une de P2.
Je pense que les choix evidents a faire si ils en faisaient une autre, c'est :
 
-Implémentation des algos HSR pour eviter le render des parties cachées.
-Optimisation des contrôleurs mémoire.
-Architecture 16x1  [:timekeeper].
-Meilleur T&L.
-Versions 128 bits et 256 bits DDR2.
 

Citation :

Car rien ne sert de sortir des CG haut de gamme si c'est uniquement pour jouer les faire-valoirs. Je pense que si Matrox veut se refaire une image auprès du marché des joueurs, ils devront adopter une politique plus tournée sur les performances et, surtout, un cycle de renouvellement bien plus court (même si les cycles des produits ont tendance à se rallonger ces derniers temps, cf. ATi qui ne sortira son R400 qu'en 2004).


 
Matrox a une réputation qui fait qu'ils peuvent se permetre de ne pas coller a 100% a la course aux perfs car leurs users leur toléreront toujours un peu moins de perfs/prix en echange d'une carte bien faite et qui dure longtemps.
Mais il ne faut pas trop abuser non plus. Avec la Parhelia ils ont clairement franchi la ligne rouge.
 

Citation :

Dans le cas contraire, Matrox pourrait disparaître complètement du monde de la 3D ludique d'ici peu, compte tenu de l'accélération des performances des cartes graphiques et la complexité graphique croissante des jeux.


 
Ils ont déja disparu. C'est pas les quelques utilisateurs de Parhelia qui sont réellement significatifs.
Quand a leurs plans futurs, je ne sait pas si ils ne feront pas une croix sur ce marché.
 

Citation :

Maintenant, il est vrai que Matrox n'a peut-être pas besoin du marché de la 3D ludique, vu la diversification de leur gamme et l'eexcellence de leurs cartes.


 
Pour l'instant non. Mais je crois que ça serait une grosse erreur de leur part que de ne pas réagir. La 3D va a mon sens assez rapidement dépasser le cadre du ludique. Tout constructeur qui ne sait pas intégrer une 3D raisonnablement rapide est mort a terme.
c'est comme les écrans couleur : Il fut un temps ou les pros n'en utilisaient jamais.
 

Citation :

PS : un exemple : pour ceux qui connaissent, un de mes amis graphistes possède une solution Matrox RT 2000, et le moins que je puisse vous dire est que cette carte dégage une puissance peu commune, permettant d'appliquer des effets très complexes en temps réel à des vidéos en flux continu, ou même d'associer 2 flux vidéo avec des filtres de transition en temps réel (oui, j'ai eu droit à une démo et oui, j'ai été bluffé, et ce dont je vous parle date de 2 ans). Bref, et je crois que c'est ce genre de choses dont parlait SR16 quand il citait des cartes dont ne rêvent même pas encore ATi et Nvivia, c'est là un ensemble dont la qualité et la puissance n'a vraiment rien à envier à la plus performante des puces 3D.


 
Oui, c'est bien de ça que je voulais parler. Clairement ils sont en avance la dessus. Ils font aussi pleins de cartes de traitement pour l'imagerie médicale et des kits "prets a programmer" pour des applis sur mesure.
Cela dit, je serais Matrox je me méfierais : ATI et NVIDIA ne sont pas du genre a chômer non plus...
 
Si ils lachent totalement la 3D ludique, ils sont morts.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2404958
Zeross
Posté le 29-04-2003 à 19:50:52  profilanswer
 

Sr16 a écrit :


Je suis etonné de ce que tu dis a propos du stencil buffer, mais après tout, je ne connais pas réellement le détail de son fonctionnement. Les propos que j'ai reporté sont ceux rapportés par des proches de J.Carmack. Cela dit, ils peuvent être sujets a caution comme semble être sujet a caution ce que déclare le dit J.Carmack vu que l'on a déja vu déclarer tout et son contraire a quelques jours d'interval.


 
Euuh Carmack se contredit rarement quand même :heink:  
 

Citation :

D'après ce que j'en ai compris, le stencil buffer sers a masquer le rendering d'une partie de l'image.


 
ça c'est l'usage "basique" le stencil est en fait à voir comme un test supplémentaire par pixel : il "marque les pixels".
 

Citation :

Il semble pouvoir servir a tout suivant l'usage. Il semble souvent être utilisé pour faire les ombrages.


 
Oui c'est exact.
 

Citation :

Donc, est tu certain que tu ne confonds pas entre render dans le stencil (Ou les Z-XXXXX optimisations seraient désactivées) et render en utilisant le stencil.


 
Je n'ai pas le temps de reprendre l'algo de shadow volumes dans le détail, grossièrement :

  • tu rends ta scène sans tenir compte des ombres : tout est éclairé.
  • tu rends le volume d'ombre (face avant puis face arrière) en désactivant l'écriture dans le frame buffer, si le volume d'ombre passe le depth test (la face du volume d'ombre est devant le pixel) tu inverses un bit du stencil : si la face avant passe et pas la face arrière le pixel est dans l'ombre, si la face avant et la face arrière passe le pixel est dans la lumière, si ni la face avant ni la face arrière ne sont devant le pixel alors il est dans la lumière. En gros si le stencil est impaire alors le pixel est dans l'ombre. Il faut voir ça vcomme le nombre d'intersection entre le volumes d'ombre et la ligne de vue.  
  • La troisième passe re-rend la scène en désactivant l'éclairage et en ne mettant à jour que les pixels marqués par le stencil. Voilà pour l'algo de base, bon en fait c'est plus compliqué (déjà que là sans schéma je sens que j'ai pas été très clair) il y a plein de cas pathologiques qui font que ce n'est pas évident du tout à gérer (c'est pas pour rien que Carmack est un des premiers à se lancer là dedans et a apporté sa contribution baptisée Carmack's reverse ;))


Mais le seul point sur lequel je voulais revenir c'est que lorsque le stencil est activé le HSR est "désactivé" ATI a indiqué que ce n'était pas tout a fait exact :
 

Citation :

ATI has since stated that they Hierarcial-Z buffer is not disabled, but seeing as there is no Hierarcical Stencil test it is just of no use during the actual stencil operation. It is, however, still enabled


 
Donc il est impossible de rejeter les faces cachés des volumes d'ombre et heureusement sinon comme ej le disais l'algo est incorrect il ne faut pas rejeteer les faces cachés du volume d'ombre vu qu'elles joeunt un rôle primordial en indiquant si oui ou non le pixel est dans l'ombre ou pas.
 

Citation :

Sinon ça voudrait dire aussi qu'utiliser le stencil = grosse perte de performance sur les ATI haut de gamme ?


 
Non pas vraiment la phase de rendu utilisant le stencil buffer n'est pas vraiment intense en bande passate donc l'absence de HSR n'est pas catastrophique.
 

Citation :

Pour ce qui est du Fill-Rate de la Parhelia, je me demande d'ou vient le fait qu'elle ne dispose que de 800mb/s de fille rate en single texturing. C'est bizarre quand même avec 4 pixels pipelines.


 
Ben euh... non c'est à dire que c'est logique : 200MHz * 4 pixel/cycles = 800MPixels/s je ne vois pas ce qui te choque là dedans.


Message édité par Zeross le 29-04-2003 à 19:53:59

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2404975
sr16
@*#%$*%§!!
Posté le 29-04-2003 à 19:59:19  profilanswer
 

Blazkowicz a écrit :


 
mouais c'est du pipo ce que tu nous dis là :p
 
le stencil buffer c'est un truc très vieux, il est supporté par ma voodoo2 (et peut-être la voodoo1?) et par directX 7, et 6 aussi probablement


 
Il me semblait que c'était Matrox qui l'avait introduit avec la G400. Mais je confonds peut être.
 
Le problème ne semble pas être l'utilisation du stencil buffer, mais l'utilisation INTENSIVE de celui ci qui donnerait un gros moins a la parhelia qui ne sait absolument pas eliminer une quelquonque partie cachée.
Cela dit, je peut me tromper. Tout ça n'est bien sur que spéculation. Je ne suis pas certain que les programmeurs de jeux eux même savent réellement pourquoi.
 

Citation :

des jeux tels splinter cell et operation flashpoint en font usage pour les ombres
ainsi que jedi knight II et Kingpin (jeux openGL c vrai mais bon ce dernier est qd-même sur le moteur de Quake2 :) )


 
Très certainement. Mais chaque algo est particulier.
 
De nombreuses personnes ont aussi evoqués le stecnil buffer a propos de 3DMark03. M'est avis qu'il y a quand même quelque chose a chercher de ce côté la.
 

Citation :

je parie que la parhelia se ramasse sur splinter


 
Je l'ai pas encore celui la. Mais je vais me renseigner.
 

Citation :

de plus les stencil buffers empêchent l'utilisation du FAA :wahoo:


 
Ah ? Savait pas. Tu tiens cela d'ou ? cela dit j'ai pas dit que c'était impossible.
 
Mais bon, pour réellement savoir il faudrait écrire un bout de code pour tester sur un exemple simple. Parce que dans le moteur d'un jeu, ça me parait assez hasardeux de spéculer sur l'utilisation ou non de telle ou telle feature. Chaque jeu fait ses magouilles et a moins de décoder l'ensemble du code source qui n'est pas disponible, ça me parait hasardeux de s'avancer la dessus.
 
 

n°2405156
blazkowicz
Posté le 29-04-2003 à 21:12:06  profilanswer
 

Zeross a écrit :


 
Euuh Carmack se contredit rarement quand même :heink:  
 


 
 :D  
 
je parie que SR16 pense encore au .plan de Carmack, lorsqu'il conspuait l'implémentation des HOS de parhelia (HOS qui sont à la base du displacement mapping), soi-disant basée sur des quads
 
quelques jours après il s'est confondu en excuses car en réalité les HOS sont basées sur des triangles (et comment.. il s'agit du truform d'ATI)
La seule erreur que [:prosterne] John Carmack [:prosterne2] a commise dans sa vie :o
 
 
[citation]

Citation :


de plus les stencil buffers empêchent l'utilisation du FAA :wahoo:


 
Ah ? Savait pas. Tu tiens cela d'ou ? cela dit j'ai pas dit que c'était impossible.
 
Mais bon, pour réellement savoir il faudrait écrire un bout de code pour tester sur un exemple simple. Parce que dans le moteur d'un jeu, ça me parait assez hasardeux de spéculer sur l'utilisation ou non de telle ou telle feature. Chaque jeu fait ses magouilles et a moins de décoder l'ensemble du code source qui n'est pas disponible, ça me parait hasardeux de s'avancer la dessus.
[/citation]
 
mouais c'était dans toutes les reviews que les stencil shadows et le FAA ne font pas bon ménage :hello:
 
le FAA s'active sur le bord des ombres ce qui créent des artefacts

n°2405214
Zeross
Posté le 29-04-2003 à 21:31:56  profilanswer
 

Blazkowicz a écrit :


 
 :D  
 
je parie que SR16 pense encore au .plan de Carmack, lorsqu'il conspuait l'implémentation des HOS de parhelia (HOS qui sont à la base du displacement mapping), soi-disant basée sur des quads
 
quelques jours après il s'est confondu en excuses car en réalité les HOS sont basées sur des triangles (et comment.. il s'agit du truform d'ATI)
La seule erreur que [:prosterne] John Carmack [:prosterne2] a commise dans sa vie :o


 
Oui je pensais à exactement la même chose ;)
A sa décharge on peut dir equ'il a jamais été u ngrand partisant des HOS et que donc il n'a sûrement pas pris le temps de l'étudier en détail ceci il avait tort sur ce coup là mais c'est plus que rare comme tu dis c'est assez exceptionnel même.
 
Pour le stencil :
Permedia 2 : 1 bit
TnT : 8 bits
Rage 128 : 8 bits
 
C'était donc disponible avant la G400 et supporté par DirectX 6.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2405482
blazkowicz
Posté le 29-04-2003 à 22:49:13  profilanswer
 

le stencil buffer 1 bit ça doit être marrant
uniquement des ombres parfaitement noires :o
sur une carte qui ne supporte pas l'éclairage coloré de qake II en plus

n°2405507
Zeross
Posté le 29-04-2003 à 22:59:21  profilanswer
 

Blazkowicz a écrit :

le stencil buffer 1 bit ça doit être marrant
uniquement des ombres parfaitement noires :o
sur une carte qui ne supporte pas l'éclairage coloré de qake II en plus  


 
C'est pas vraiment sur ça que ça va jouer relis l'algo le stencil est utilisé pour tagger les pixels il suffit d'inverser le bit stencil et ça marhe. Le problème avec un stencil d'un bit c'est pour les volumes d'ombres imbriqués.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2405617
lichemz
15000 pixels de génie
Posté le 29-04-2003 à 23:37:13  profilanswer
 

Sr16 a écrit :


 
Non, mais l'avenir sera au DVI-D, la partie Ramdac migrera dans le moniteur. Déja ça sera un problème de moins sur les ATI-NVIDIA.


 
Je crois que ce n'est pas impossible. Après tout, les fabricants de moniteurs savent eux-mêmes et mieux que quiconque quel type de RamDAC (et à quelle fréquence) correspond le mieux au matériel qu'ils vendent.
 
 

Citation :


Je l'ignore. Je bosse pas chez Matrox. Mais vu certaines rumeurs je ne sait même pas si il y en aura une de P2.
Je pense que les choix evidents a faire si ils en faisaient une autre, c'est :
 
-Implémentation des algos HSR pour eviter le render des parties cachées.


 
Je crois que c'est indispensable. On ne peut pas se retrancher derrière des arguments d'effets de bord au niveau des algorithmes lorsque l'on sait qu'au niveau 3D (et pas seulement dans les jeux), les scènes seront de plus en plus chargées, avec un nombre de polygones affiché nettement inférieur à ce qui est calculé sans HSR.
 

Citation :


-Optimisation des contrôleurs mémoire.
-Architecture 16x1  [:timekeeper].


 
Il est curieux de te voir appeler de tes voeux une architecture 16x1, toi qui n'a cessé de vanter la stabilité de l'architecture 4x4 de la Parhélia, notamment en termes de constance du framerate. Mais c'est un bon choix, et je crois qu'il vaut mieux voir une carte chuter de 160fps (en single-texturing) à 40fps (en quad-texturing) que d'en avoir une qui affiche 40 fps quel que soit le nombre de textures par polygone.
 

Citation :


-Meilleur T&L.
-Versions 128 bits et 256 bits DDR2.


 
En espérant que la DDR2 devienne rapidement rentable, et surtout chauffe moins.
 

Citation :


Matrox a une réputation qui fait qu'ils peuvent se permetre de ne pas coller a 100% a la course aux perfs car leurs users leur toléreront toujours un peu moins de perfs/prix en echange d'une carte bien faite et qui dure longtemps.
Mais il ne faut pas trop abuser non plus. Avec la Parhelia ils ont clairement franchi la ligne rouge.


 
C'est exactement ce que je me dis, surtout en regard du positionnement plutôt ludique de la Parhélia.
 
Finalement, cette carte souffre à mon avis d'une trop grande hybridation : elle veut jouer à la fois dans la terrain ludique et sur le terrain des pros, et ne réussit ni dans l'un, ni vraiment dans l'autre. Reste la qualité d'affichage, qui ne sera malheureusement bientôt plus un argument de vente :( ...
 

Citation :


Ils ont déja disparu. C'est pas les quelques utilisateurs de Parhelia qui sont réellement significatifs.
Quand a leurs plans futurs, je ne sait pas si ils ne feront pas une croix sur ce marché.


 
J'espère bien que non ! Pour moi (et pour beaucoup d'autres), la découverte de la 3D (dans les jeux) a été faite avec une Matrox, et j'aimerais les voir sortir encore des cartes taillées pour les performances (ils ne sont pas bêtes, loin de là), mais avec des choix tranchés et pertinents : une carte de jeu n'est pas une carte pro, et vice-versa. Ce sont deux marchés par trop différents pour que le grand écart que constitue la Parhélia soit vraiment efficace.
 

Citation :


Pour l'instant non. Mais je crois que ça serait une grosse erreur de leur part que de ne pas réagir. La 3D va a mon sens assez rapidement dépasser le cadre du ludique. Tout constructeur qui ne sait pas intégrer une 3D raisonnablement rapide est mort a terme.
c'est comme les écrans couleur : Il fut un temps ou les pros n'en utilisaient jamais.


 
Je crois en fait que cela fait longtemps que la 3D a dépassé le cadre ludique (en dehors du cas évident des applis pro, il y a les gestionnaires de fenêtres pour Linux en 3D intégrale qui sont mis en projet un peu partout, ou même certaines applications 2D qui utilisent des extensions OpenGL pour accélérer l'affichage de certains éléments à l'écran). Ceci, comme en général dans l'informatique, c'est par le biais du jeu que l'on promeut le plus rapidement les nouvelles technologies.
 

Citation :


Oui, c'est bien de ça que je voulais parler. Clairement ils sont en avance la dessus. Ils font aussi pleins de cartes de traitement pour l'imagerie médicale et des kits "prets a programmer" pour des applis sur mesure.


 
Je ne connais malheureusement pas tout le champ d'application des cartes Matrox et pour être tout à fait franc, la RT 2000 est l'une des 3 ou 4 cartes pros de chez eux que j'ai pu voir fonctionner en temps réel sur 2 moniteurs, et c'est ... comment dire ... stupéfiant. Quand on voit le temps qu'un Adobe Première met à calculer des filtres un peu complexes alors que cette carte fait tout ça en temps réel, le tout en mixant deux flux vidéo, il y a de quoi rester bouche bée (j'insiste sur ce fait; je fais un peu de montage vidéo, ça me prend du temps, beaucoup de temps de calcul et si j'en avais les moyens, j'aurais une RT2000 dans mon PC demain ! :D).
 

Citation :


Cela dit, je serais Matrox je me méfierais : ATI et NVIDIA ne sont pas du genre a chômer non plus...
 
Si ils lachent totalement la 3D ludique, ils sont morts.


 
Je pense que Matrox en est conscient plus que quiconque. Les PC sont de plus en plus taillés pour le jeu (et achetés dans cette optique), et la mauvaise optimisation des softs ludiques (ainsi que l'augmentation de leur complexité graphique) appelle à toujours plus de puissance et d'efficacité. Matrox serait donc bien avisé de ne pas délaisser ce marché à fort potentiel même si, objectivement parlant, les plus grosses cartes 3D ne sont pas vraiment celles qui font vivre les fabricants, mais sont plus là pour l'image de marque.


---------------
« Si nous devions gagner sans interruption, nous deviendrions aussi impopulaire que Ferrari, et nous voulons éviter cela. » Flavio Briatore, 06/06/2005
n°2406483
blazkowicz
Posté le 30-04-2003 à 13:07:29  profilanswer
 

Zeross a écrit :


 
C'est pas vraiment sur ça que ça va jouer relis l'algo le stencil est utilisé pour tagger les pixels il suffit d'inverser le bit stencil et ça marhe. Le problème avec un stencil d'un bit c'est pour les volumes d'ombres imbriqués.


 
 :jap:  
 
d'autant plus con ce que je dis que les ombres de doom ]|[ sont elles-mêmes parfaitement noires qd ya qu'une seule source de lumière (salle de bain) :ange:

n°2406911
sr16
@*#%$*%§!!
Posté le 30-04-2003 à 15:11:59  profilanswer
 

Zeross a écrit :


 
Euuh Carmack se contredit rarement quand même :heink:


 
Ca semble pourtant être une habitude chez lui de dire tout et son contraire au sujet d'un hardware donné. C'est partait il réputé. Il est capable de dire qu'une carte c'est de la balle, puis 2 jours après que c'est de la merde, puis 1 semaine après qu'elle est géniale (Tout ça sans argumentation valable).  
Il y a aussi surement des relations que carmack entretient obligatoirement avec certaines marques de CG qui sont compréshensible et obligatoires.
 

Citation :

Citation :

Donc, est tu certain que tu ne confonds pas entre render dans le stencil (Ou les Z-XXXXX optimisations seraient désactivées) et render en utilisant le stencil.


 
Je n'ai pas le temps de reprendre l'algo de shadow volumes dans le détail, grossièrement :

  • tu rends ta scène sans tenir compte des ombres : tout est éclairé.
  • tu rends le volume d'ombre (face avant puis face arrière) en désactivant l'écriture dans le frame buffer, si le volume d'ombre passe le depth test (la face du volume d'ombre est devant le pixel) tu inverses un bit du stencil : si la face avant passe et pas la face arrière le pixel est dans l'ombre, si la face avant et la face arrière passe le pixel est dans la lumière, si ni la face avant ni la face arrière ne sont devant le pixel alors il est dans la lumière. En gros si le stencil est impaire alors le pixel est dans l'ombre. Il faut voir ça vcomme le nombre d'intersection entre le volumes d'ombre et la ligne de vue.  
  • La troisième passe re-rend la scène en désactivant l'éclairage et en ne mettant à jour que les pixels marqués par le stencil. Voilà pour l'algo de base, bon en fait c'est plus compliqué (déjà que là sans schéma je sens que j'ai pas été très clair) il y a plein de cas pathologiques qui font que ce n'est pas évident du tout à gérer (c'est pas pour rien que Carmack est un des premiers à se lancer là dedans et a apporté sa contribution baptisée Carmack's reverse ;))


Mais le seul point sur lequel je voulais revenir c'est que lorsque le stencil est activé le HSR est "désactivé" ATI a indiqué que ce n'était pas tout a fait exact :

Citation :

ATI has since stated that they Hierarcial-Z buffer is not disabled, but seeing as there is no Hierarcical Stencil test it is just of no use during the actual stencil operation. It is, however, still enabled


:
Donc il est impossible de rejeter les faces cachés des volumes d'ombre et heureusement sinon comme ej le disais l'algo est incorrect il ne faut pas rejeteer les faces cachés du volume d'ombre vu qu'elles joeunt un rôle primordial en indiquant si oui ou non le pixel est dans l'ombre ou pas.
:


 
Je ne suis que partiellement d'accord avec toi. J'ai bien etudié l'algo en question, on parle bien de la même chose.  
Mais la ou je ne suis pas d'accord, c'est qu'il n'y a pas qu'une seule phase et pas qu'une seule optimisation (Hierarchical Z-Buffer).
Comme tu le précise, il y a plusieurs variantes et finesse dont l'étude dépasse un peu le cadre de ce topic. Mais globalement, si on reprends l'exemple que tu as donné :
 
(1) Phase N°1 : Rendering de la scene sans textures pour initialiser le Z-Buffer (Ou pourquoi pas, avec texture pour faire un rendu primaire sans les ombres ?). Je vois mal en quoi dans ce rendu on ne pourait pas eliminer du processus les polygones cachés pour gagner du temps. Surtout si le render se fait avec textures.
 
(2) Phase N°2 : Calcul des polygones d'ombrage par extrusion. A noter que ce ne sont pas les polygones qui constituent la scene mais plutot des polygones qui rendent la projection des ombres pour chaque objet. On effectue un rendu un peu spécial dans le stencil buffer en 2 passes. Le but est grosso modo d'etablir pour chaque pixel le nombre de polygones d'ombrages entre le pixel et la camera. Le rendu dans le stencyl se fait en 2 passes. Et par incrémentation/décrémentation on etablit pour chaque pixel combien de plygones d'ombrage se trouvent sur le chemin de la lumiere entre le pixel et la camera.  On se sers de l'initialisation du Z-Buffer fait en -1- pour déterminer si un polygone d'ombrage est dévant le pixel visualisé ou non. Il est clair que dans ce cas, on effectue le rendu de tous les polygones et les optimisations HSR ne servent a rien on est bien d'accord.
 
(3) Phase N°3 : Rendu des ombres du stencil. A chaque pixel ou le nombre de polygones d'ombrage traversé n'est pas pair, ça signifie ombrage. Sinon, c'est eclairé. A noter que l'on doit tester si la camera se trouve dans un polygone d'ombrage. Si c'est le cas, il faut inverser : A chaque pixel ou le nombre de polygones d'ombrage traversé est pair, ça signifie ombrage. Sinon, lumière.
Le phase N°3 peut signifier que l'on fait un rendu avec polygones ou non. Pourquoi pas une simple passe qui réduit la luminosité la ou le stencil est marqué. Ou on peut faire un rendu de la scene avec exclusion de polygones.
Beaucoup de possibilités a ce niveau la. Difficile de savoir laquelle est utilisée dans tel ou tel jeu et que peuvent faire les CG a ce niveau la en fonction des tweaks utilisés.
Mais de toute façon, il faut bien rendre les textures a un moment donné.
 
 
A NOTER : Les phases 2 et 3 seront répétées autant de fois qu'il y a de sources lumineuses impliquées.
 
Si c'est en phase 3, tu cites la phrase :
 
"ATI has since stated that they Hierarcial-Z buffer is not disabled, but seeing as there is no Hierarcical Stencil test it is just of no use during the actual stencil operation. It is, however, still enabled"
 
C'est ambiguë. On ne sait pas bien si c'est pendant la phase de render dans le stencil ou si c'est en phase 3 aussi. Ca ne dit pas non plus si les autres optimisations sont utilisées ou non et ni si l'optimisation est désactivée totalement ou simplement qu'elle ne s'aide pas du stencil pour fonctionner.
 
Bref, je serais etonné quand même un peu que devant la faiblesse de la Parhelia question HSR (Aucun HSR a aucun niveau comme le montre GL_EXT_REME) que les ATI et NVIDIA ne soient pas capables d'utiliser au moins une partie de leurs optimisations durant au moins une partie des 3 phases de rendu de cet algo d'ombrage volumétrique. Sans compter le nombre de répétitions des phases 2 et 3 pour chaque lampe. Une petite différence d'opti a ce niveau, ça peut chiffrer grave a l'arrivée des courses vu le nombre de phases.
 
Mais je suis d'accord que pour réellement savoir de quoi il retourne, il faudrait implémenter un test. Mais un problème par rapport au stencil de la Parhali a été evoqué par plusieurs personnes.
 

Citation :

Citation :

Sinon ça voudrait dire aussi qu'utiliser le stencil = grosse perte de performance sur les ATI haut de gamme ?


 
Non pas vraiment la phase de rendu utilisant le stencil buffer n'est pas vraiment intense en bande passate donc l'absence de HSR n'est pas catastrophique.


 
Certes, mais a ce moment la ou est la différence entre une R9700 et une Parhelia ?  
Ok, la R9700 tourne 1/3 plus vite et dispose de 2x plus de pixel pipes. Mais sur le marché, actuellement, il n'y a guère que les R9500 pro qui ont aussi leurs 8 pixel pipes et les R9600 annoncées n'en auront que 4 (Quand aux Nv FX elles sont pour l'instant mortes nées).
Si je comprends bien le principe, Doom III sera réservé aux CG R9500 PRO et R9700 ?
 

Citation :

Citation :

Pour ce qui est du Fill-Rate de la Parhelia, je me demande d'ou vient le fait qu'elle ne dispose que de 800mb/s de fille rate en single texturing. C'est bizarre quand même avec 4 pixels pipelines.


 
Ben euh... non c'est à dire que c'est logique : 200MHz * 4 pixel/cycles = 800MPixels/s je ne vois pas ce qui te choque là dedans.


 
Non, tu as raison il n'y a rien de choquant. C'est même tout con.


Message édité par sr16 le 30-04-2003 à 15:16:49

---------------
TOPIC PERMANENT Matrox Parhelia
n°2406955
sr16
@*#%$*%§!!
Posté le 30-04-2003 à 15:27:42  profilanswer
 

Blazkowicz a écrit :


 
 :jap:  
 
d'autant plus con ce que je dis que les ombres de doom ]|[ sont elles-mêmes parfaitement noires qd ya qu'une seule source de lumière (salle de bain) :ange:


 
Oui, tu as parfaitement raison. Cet algo donne des ombres en tout ou rien et sans aucun dégradé. C'est effectivement binaire.
 
Personellement, je trouve cet algo réellement lourdingue et compliqué. Il peut réellement faire exploser les calculs. Dixit un ouvrage sur le sujet, il n'est réellement utile que pour gérer les ombrages d'un nombre d'objets restreint.
 
j'ai trouvé pas mal d'écrits de Carmack sur le sujet : Il semble bien l'aimer et avoir beaucoup bossé dessus et je ne suis pas etonné que DoomIII en fasse un usage démesuré.
 
Mais si c'est le cas, j'espère qu'il aura prévu un moyen de désactiver ces effets pour les CG avec lequel ça ne tourne pas tip top.
 
Deuxièmement, j'espère que DoomIII aura réellement un interet de jeu.  
 
J'aime bien Quake III parce que c'est rapide et jouable. Mais bon, c'est vrai qu'un jeu type doom-half-life-unreal s'accomode d'un framerate inférieur et se doit d'être plus joli(C'est une grand epartie de l'interet de jeu) qu'un Tournament-QuakeIII ou les décors on s'en moque un peu plus car c'est pas cela qui est la base de l'interet primaire du jeu.
 
 
 
Pour finir, je vais downloader la démo de splinter Cell pour voir ce que ça donne.


Message édité par sr16 le 30-04-2003 à 15:29:06

---------------
TOPIC PERMANENT Matrox Parhelia
n°2406971
Fendnts
My fading voice sings of love
Posté le 30-04-2003 à 15:32:12  profilanswer
 

la demo de splinter tourne presque fluide en 1024 32 bits sur une GeforceDDR, (accompagné d'un bon proc quand même) donc ça m'étonnerait que ça mette par terre la parhelia quand même...

n°2408329
blazkowicz
Posté le 01-05-2003 à 00:03:43  profilanswer
 

Sr16 a écrit :


 
Oui, tu as parfaitement raison. Cet algo donne des ombres en tout ou rien et sans aucun dégradé. C'est effectivement binaire.
 
Personellement, je trouve cet algo réellement lourdingue et compliqué. Il peut réellement faire exploser les calculs. Dixit un ouvrage sur le sujet, il n'est réellement utile que pour gérer les ombrages d'un nombre d'objets restreint.
 
j'ai trouvé pas mal d'écrits de Carmack sur le sujet : Il semble bien l'aimer et avoir beaucoup bossé dessus et je ne suis pas etonné que DoomIII en fasse un usage démesuré.
 
Mais si c'est le cas, j'espère qu'il aura prévu un moyen de désactiver ces effets pour les CG avec lequel ça ne tourne pas tip top.
 
Deuxièmement, j'espère que DoomIII aura réellement un interet de jeu.  
 
J'aime bien Quake III parce que c'est rapide et jouable. Mais bon, c'est vrai qu'un jeu type doom-half-life-unreal s'accomode d'un framerate inférieur et se doit d'être plus joli(C'est une grand epartie de l'interet de jeu) qu'un Tournament-QuakeIII ou les décors on s'en moque un peu plus car c'est pas cela qui est la base de l'interet primaire du jeu.
 
 
 
Pour finir, je vais downloader la démo de splinter Cell pour voir ce que ça donne.
 


 
euh désactiver les ombres de doom ]|[... c'est comme faire le code qui rend le jeu totalement clair (plus d'éclairage) dans le premier doom
si tu veux jouer comme ça, c'est nul
 
une Geforce3 fera déjà bien tourner le jeu
sur une parhelia ce sera correct je pense
le 640x480 sur ce jeu c'est déjà une tuerie (après tout riven par ex. c'est du 640x480 :o)
 
mais sans les ombres tu régresses au premier wolf3D
et en multi ce serait du cheat :o
 
 
----
quoique.. il serait envisagleable de désactiver les ombres en gardant l'éclairage qd même :p
 
mais bon... doom sans ombre?
une hérésie

n°2408349
sr16
@*#%$*%§!!
Posté le 01-05-2003 à 00:13:02  profilanswer
 

Bon, j'ai fait le test avec splinter cell.
 
Déja en le téléchargeant j'ai vu que les auteurs avaient mentionné la Parhelia dans les cartes supportées.
 

Citation :

Readme for "Splinter Cell" PC (c) Ubi Soft 2002
 
==============================================================================
Minimum Configuration:
800 MHz Pentium III or AMD Athlon
256 MBytes RAM
DirectX 8.1
32 MBytes video card ***
DirectX 8.1 compatible sound card
8x speed CD/DVD-ROM drive
1,5 GIG Hard Drive Space
 
Recommended Configuration:
1000 MHz Pentium III or AMD Athlon or better
256 MBytes RAM or better
DirectX 8.1
64 MBytes video card ***
DirectX 8.1 compatible sound card with surround system
8x speed CD/DVD-ROM drive or better
2,1 GIG Hard Drive Space
 
***Splinter Cell supports the following graphic cards:
- Nvidia GeForce2 Ti/Ultra/Pro/GTS/MX400/MX
- Nvidia GeForce3 familly
- Nvidia GeForce4 familly
- Matrox Parhelia
- ATI Radeon 8500/9000/9500/9700
 
Supported OS: Win 98/2000/ME/XP
 
These configurations will remain the same for the final game.
 
==============================================================================


 
 
Pour ce qui est du jeu lui même, non seulement la Parhelia ne se vautre absolument pas mais en plus elle tourne relativement bien puisque j'ai reussi a y jouer en 1600x1200 avec tous les détails et surtout les ombrages tout a fond en haute résolution.
 
Je me demande quelle technique ils ont utilisé pour les ombrages pour que ça tourne aussi bien.
 
Il est pas mal ce jeu, il me rapelle Max Payne au niveau de l'ambiance.
 
 


---------------
TOPIC PERMANENT Matrox Parhelia
n°2408354
blazkowicz
Posté le 01-05-2003 à 00:15:25  profilanswer
 

bah yen a qui vont te dire que ça rame sur une GF4Ti4200..
peut-être qu'il faut du CPU et de la RAM :o

n°2408358
sr16
@*#%$*%§!!
Posté le 01-05-2003 à 00:17:27  profilanswer
 

Blazkowicz a écrit :


 
euh désactiver les ombres de doom ]|[... c'est comme faire le code qui rend le jeu totalement clair (plus d'éclairage) dans le premier doom
si tu veux jouer comme ça, c'est nul
 
une Geforce3 fera déjà bien tourner le jeu
sur une parhelia ce sera correct je pense
le 640x480 sur ce jeu c'est déjà une tuerie (après tout riven par ex. c'est du 640x480 :o)
 
mais sans les ombres tu régresses au premier wolf3D
et en multi ce serait du cheat :o
 
 
----
quoique.. il serait envisagleable de désactiver les ombres en gardant l'éclairage qd même :p
 
mais bon... doom sans ombre?
une hérésie


 
Sans être trop exigeant, j'espère qu'on pourra quand même utiliser le 800x600. C'est le minimum acceptable pour avoir une image "regardable". Surtout sur un 21", le 640*480 ça fait tache  :pt1cable:.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2408369
blazkowicz
Posté le 01-05-2003 à 00:20:47  profilanswer
 

mets du FAA!
 
ah non
oops :whistle:

n°2408447
Fendnts
My fading voice sings of love
Posté le 01-05-2003 à 00:49:03  profilanswer
 

ah oui, teste le FAA sur splinter.
 
mais comme je l'ai dit, je pense que splinter s'accomode bien d'une carte peu puissante si le proc et la RAM suivent vu que comme je vous l'ai dit, ça tourne sur ma config


---------------
(un posteur anonyme m'a renseigné là dessus tout à l'heure)
n°2408472
blazkowicz
Posté le 01-05-2003 à 00:57:26  profilanswer
 

splinter cell ce serait en fait des shadow buffers et non des stencil buffers :??:
mais je suis pas sûr

n°2408558
Zeross
Posté le 01-05-2003 à 02:33:49  profilanswer
 

Splinter Cell utilise les Shadow maps pas de stencil là dedans :)


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2408954
Fendnts
My fading voice sings of love
Posté le 01-05-2003 à 12:07:56  profilanswer
 

Zeross a écrit :

Splinter Cell utilise les Shadow maps pas de stencil là dedans :)


 
oui donc la parhelia risquait pas de s'écrouler ;) (ni même ma vieille geforce256DDR)


---------------
(un posteur anonyme m'a renseigné là dessus tout à l'heure)
n°2410470
JulioGlace​s
Posté le 01-05-2003 à 22:13:16  profilanswer
 

Des nouvelles des perf des Matrox P-Serie par Matrox himself :
http://www.matrox.com/mga/products [...] rhelia.cfm
vos estimation était plutot bonne, par contre j'ai pas réussi à placer les perfs les GF et les Radeon, pas trouvé de bench 3DMark 2k1 avec des Gx50.

n°2410864
Fendnts
My fading voice sings of love
Posté le 02-05-2003 à 01:31:28  profilanswer
 

la P750 est exactement 2 fois moins performante... pour 2 fois moins cher :/
 
parhelia ou FX5600 ultra ? :/
 
(oui, je veux pas d'ATI)


---------------
(un posteur anonyme m'a renseigné là dessus tout à l'heure)
n°2411490
sr16
@*#%$*%§!!
Posté le 02-05-2003 à 12:55:37  profilanswer
 

Testé le FAA sur Splinter Cell.
 
Verdict : Ca ne marche pas.
 
Déja en 1600x1200 avec FAA activé il refusait de se lancer au motif (dixit)que je n'aurais pas eu assez de mémoire vidéo  :??: (heink ?).
 
Il a accépté de "marcher" en 1024x768. Mais ça ne marche pas du tout. Un polygone sur 5 seulement est anti aliasé mais le meilleur c'est que des polygones sont anti aliasés anarchiquement au millieu des objets.
C'est marant, mais ce jeu me rapelle furieusement Max Payne.
 
Bon, c'est pas une cata vu que en 1600x1200 ça marche bien et les marches d'escalier ne se voient que très peu. Mais c'est clairement evident que ça aurait été encore mieux si ça marchait.
 
Bon, il reste le FSAA classique. Mais son implémentation est trop lente sur la Matrox pour dépasser le 800x600 en 4x.
 
Je pense que je commence a comprendre la ou le FAA peut être pris en défaut.  
Au niveau de DirectX, on peut faire s'afficher les polygones par groupes (Strips ou eventails). C'est en partie pour des raisons d'optimisation car ça evite de calculer la projection de 3 vertex par triangle vu que certains vertex sont communs. Si les jeux utilisent ce schéma A ce moment la, le driver sait ce qu'il faut anti aliaser ou non.
La plupart des jeux utilisent d'ailleurs ce schéma. Sur UT2003, ça marche d'ailleurs très bien.
 
Pour les rares jeux qui ne suivent pas ce schéma, ça ne marche pas ou pas bien (Artefacts + Pas les bons polygones qui sont anti aliasés.)
 
L'idéal pour le FAA du futur serait que le créateur du jeu puisse marquer les "edges" a anti aliaser.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2411498
sr16
@*#%$*%§!!
Posté le 02-05-2003 à 12:57:52  profilanswer
 

JulioGlaces a écrit :

Des nouvelles des perf des Matrox P-Serie par Matrox himself :
http://www.matrox.com/mga/products [...] rhelia.cfm
vos estimation était plutot bonne, par contre j'ai pas réussi à placer les perfs les GF et les Radeon, pas trouvé de bench 3DMark 2k1 avec des Gx50.


 
Cool. Merci de l'info.
 
Je vais m'attacher a faire un 3DMark2001 avec une G550. Et aussi avec une G400.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2411565
sr16
@*#%$*%§!!
Posté le 02-05-2003 à 13:21:34  profilanswer
 

fendnts a écrit :

la P750 est exactement 2 fois moins performante... pour 2 fois moins cher :/
 
parhelia ou FX5600 ultra ? :/
 
(oui, je veux pas d'ATI)


 
Oui, le prix est fonction du poids chez Matrox :D  
 
Mais c'est clair que en divisant par deux le nombre de texture units et les unités de shaders, on divise logiquement les perfs par 2.
 
C'est clair que pour une utilisation mixte, je ne te la conseille vraiment pas cette P750.
 
Par contre, je ne te conseille pas du tout la FX5600.
 
Cette carte est en réalité une démonstration d'image pour NVIDIA dont le seul but est de continuer a faire vendre les cartes d'entrée et moyenne gamme.
C'est aussi un produit qui servira de base au développement du futur.
 
Mais dans la réalité d'aujourd'huis, cette carte n'est pas compétitive:
 
-Trop chère
-Trop peu puissante pour son prix.
-Trop bruyante.
-Trop overclockée pour être fiable.
-Trop peu diffusée pour que NVIdia se préoccupe beaucoup des mises a jour de drivers dans le temps.
 
Bref, c'est finalement plus un proto pour développeurs qu'une vraie carte commerciale.
 
Sinon, je ne comprends pas bien ce que tu as contre ATI. Certes, elles sont parfois un peu capricieuses. Clairement plus que les NVidia en general. Mais quand ça marche, on peut en être réellement content. Et les 8500Le/9100 et 9700 sont déja sur le marché depuis un moment, ce qui est un plus question stabilité.
 
Par contre, l'avantage que je vois par rapport a ATI, c'est la qualité d'image qui est quand même meilleure que chez NVIDIA.
Donc je serais toi, j'hésiterais plutôt entre une Radeon 9700 et une Parhelia.
 
D'ailleurs, si ça se fait, tu devrais essayer une bonne radeon 8500Le/ 9100 et de voir si tu en est content par rapport a ton usage. Une bonne doit se trouver aux alentours de 120-130 roros max. pour une 250/250 qui s'overclocke en general assez bien a +25mhz.
 
Pour ce qui est de la 9700, il vaut mieux prendre la version non-pro même si elles est 10% plus lente. Elle est par contre beaucoup moins chère.


Message édité par sr16 le 02-05-2003 à 13:24:24

---------------
TOPIC PERMANENT Matrox Parhelia
n°2411578
alanou
HFR certified
Posté le 02-05-2003 à 13:28:54  profilanswer
 

toi tu confonds 5600 et 5800, t'as tappé plein de trucs pour rien :D

n°2411601
Fendnts
My fading voice sings of love
Posté le 02-05-2003 à 13:40:08  profilanswer
 

oui, je parlais de la 5600, pas de la 5800
 
la 5600 est placée au même prix que la radeon 9600 et les perfs de ces deux cartes sont très très proches. la 9500 commence hélas déjà à disparaître.
 
et justement, tu précises "quand ça marche" et j'ai lu sur plusieurs forum sur le CM nforce1/2 que les radeon ont du mal (presque 1 cm sur 5 ne les accepte pas, j'ai pas envie de prendre de risque)
 
la parhelia me plait toujours mais j'ai du mal à en accepter le prix.


---------------
(un posteur anonyme m'a renseigné là dessus tout à l'heure)
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  20  21  22  23  24  25

Aller à :
 

Sujets relatifs
parhelia d'occazeSon et Raid integrés, perfs decrus ?
dual head matrox ou nforce2Matrox G400Max et AGP 1,5v
Que dois je faire pour ameliorer mes perfs sous 3 d mark 2001 ?Quel perfs je peux faire avec cette config?
Matrox G200 XPSP1 Accélération matérielle Overlayhd partionné perfs moins bonnes ???
matrox g550: Affichage sur bi-ecran degueulasse ....:(Gros problemes de perfs sur portable
Plus de sujets relatifs à : Les perfs de la Matrox Parhelia


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR