Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1571 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  6  ..  20  21  22  23  24  25
Auteur Sujet :

Les perfs de la Matrox Parhelia

n°2193756
sepiroth
Posté le 05-02-2003 à 15:03:06  profilanswer
 

Reprise du message précédent :
non sur le site de matrox on peut pas telecharger la demo mais juste des vidéos( de bonne qualité).
C dommage qu'ils la proposent pas en DL j'aurais pu essayer de la faire marcher avec ma 9700 pro meme si j'y crois pas trop...
meme si toutes les fonctions de la matrox sont supportées par la 9700 si je ne m'abuse ?
En tous cas d'apres les videos c bien joli ! Dommage que ATI nous ponde pas des démos aussi belles (quoique elles sont pas mal celles de la 9700..)pourtant a mon avis y en ont largement les moyens..


---------------
PC : RTX 4090/7800X3D/32Go 6400/B650E/LG C3=42"/Asus 49"32:9 CAISSES : Corvette C7 GS track car (620HP NA Full aero et suspattes/slicks) / Tesla Model S Plaid 1020HP
mood
Publicité
Posté le 05-02-2003 à 15:03:06  profilanswer
 

n°2195414
Fendnts
My fading voice sings of love
Posté le 05-02-2003 à 23:09:40  profilanswer
 

sepiroth a écrit :

non sur le site de matrox on peut pas telecharger la demo mais juste des vidéos( de bonne qualité).
C dommage qu'ils la proposent pas en DL j'aurais pu essayer de la faire marcher avec ma 9700 pro meme si j'y crois pas trop...
meme si toutes les fonctions de la matrox sont supportées par la 9700 si je ne m'abuse ?
En tous cas d'apres les videos c bien joli ! Dommage que ATI nous ponde pas des démos aussi belles (quoique elles sont pas mal celles de la 9700..)pourtant a mon avis y en ont largement les moyens..


 
je pense que cette demo est tellement faite pour utiliser les possibilités de la matrox qu'elle ramerait sur une 9700 pro
 
sur les jeux, pas de prob, la 9700 éclate la parhelia à plates-coutures, mais sur une demo avec quad-texturing, FAA16X, embm, là je crois que la parhelia garde facile la main (quatre texture engine quoi, ça sert à rien sur les jeux, mais là, ça doit servir grave... à quand de beaux jeux en quad-texturing histoire de voir un bench ou la parhelia bat la 9700 ;)


---------------
(un posteur anonyme m'a renseigné là dessus tout à l'heure)
n°2195619
muzah
Bal Musette @ HFR depuis 1997
Posté le 06-02-2003 à 00:35:58  profilanswer
 

fendnts a écrit :

à quand de beaux jeux en quad-texturing histoire de voir un bench ou la parhelia bat la 9700 ;)

on attend ... [:zebra33]


---------------
un instant monsieur ça-va-chier
n°2196222
sepiroth
Posté le 06-02-2003 à 13:06:52  profilanswer
 

la 9700 a quand meme 8 pixels pipeline et fais 16 textures par passes  :ange:  
et puis son moteur de calcul géometrique et de pixels et vertex shader est autrement puissant :ange:


---------------
PC : RTX 4090/7800X3D/32Go 6400/B650E/LG C3=42"/Asus 49"32:9 CAISSES : Corvette C7 GS track car (620HP NA Full aero et suspattes/slicks) / Tesla Model S Plaid 1020HP
n°2200489
sr16
@*#%$*%§!!
Posté le 07-02-2003 à 23:12:15  profilanswer
 

sepiroth a écrit :

la 9700 a quand meme 8 pixels pipeline et fais 16 textures par passes  :ange:  
et puis son moteur de calcul géometrique et de pixels et vertex shader est autrement puissant :ange:  


 
Euh ? Logiquement la 9700 ne devrait pas avoir la possibilité de traiter 16 textures par passes. D'apres ce qu'on en sait, c'est une architecture 8x1. Elle ne doit pouvoir en traiter logiquement que 8 par cycle.
 
Pour ce qui est des shaders et de son moteur de calcul géométrique, il faut reconnaitre que la 9700 est effectivement plus puissante que la Parhelia.
 
De toute façon, clairement, si tu recherche les meilleurs performances possibles au niveau des jeux, il faut prendre une R9700. A mon sens c'est la carte la plus puissante actuellement et avec un excellent rapport Q/P. Je la préfèrerais nettement au GeForce FX dont les benchs et la qualité de l'AA me semblent vraiment très discutables.
 
Le choix de Matrox est lié a une utilisation professionnelle. Mais autant les ATI/NVIDIA brillent par leurs perfs 3D, autant au niveau piqué 2D et rendu des couleurs, c'est pas la joie.
Pire que ça, d'un fabricant de carte a l'autre, voir d'un modèle a l'autre tu tombe sur des cartes "utilisables" ou carrément pourries.
 
Clairement, la Parhelia correspond a une utilisation : Je bosse la plupart du temps : J'ai investi dans un bon moniteur et je veut les meilleurs performances en piqué et en gestion des couleurs. Mais je veut aussi pouvoir me détendre et jouer avec un Framerate correct.  
Et même si la Parhelia n'atteint pas le niveau de vitesse d'une R9700, elle s'acquitte très très bien de sa tache question jeux : Et je suis exigeant car fana de FPS.


Message édité par sr16 le 07-02-2003 à 23:15:27

---------------
TOPIC PERMANENT Matrox Parhelia
n°2201213
muzah
Bal Musette @ HFR depuis 1997
Posté le 08-02-2003 à 12:40:29  profilanswer
 

je confirme : le R9700 même pro ne prend pas en charge 16 text. par passe. Par contre les R350 seront normalement à même de le faire :)


---------------
un instant monsieur ça-va-chier
n°2201891
noelemac
Posté le 08-02-2003 à 16:09:33  profilanswer
 

muzah a écrit :

je confirme : le R9700 même pro ne prend pas en charge 16 text. par passe. Par contre les R350 seront normalement à même de le faire :)


 
Exacte, et il ne faut pas oublier que la 9700pro est cadencée à 325Mhz, contre 200Mhz pour une parhélia.
 
Ce que je veut dire , c'est que meme si théoriquement la parhélia traite 16 texture par passe contre 8 pour une 9700pro, quand la parhélia fait une passe, la 9700pro en fait environs 1.75
 
Donc au final, l'écart en texturing est tres loin d'être du simple au double entre ces deux cartes. Sans parler du bus mémoire. C'est bien jolie de traiter 16 textures en meme temps, faut-il encore que la mémoire puisse les délivrer et d'apres certain site hardware, meme les 19.6Go/s des 9700pro sont limite pour délivrer une tel quantité de donnée. J'ose pas trop imaginer avec une parhélia qui ne dispose d'aucune optimisation mémoire, les unité de texture doivent se tourner les pousses de temps en temps.

n°2202506
sr16
@*#%$*%§!!
Posté le 08-02-2003 à 20:39:56  profilanswer
 

muzah a écrit :

je confirme : le R9700 même pro ne prend pas en charge 16 text. par passe. Par contre les R350 seront normalement à même de le faire :)


 
Il me semble avoir entendu deux sons de cloche différents. La première version qui dit que le R350 serait une architecture 8x2. La seconde qui dément la première et qui dit que ça serait une 8x1 comme la 9700.
Apparement il semblerait que la seconde version soit dans le vrai.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2202673
sr16
@*#%$*%§!!
Posté le 08-02-2003 à 21:37:14  profilanswer
 

noelemac a écrit :


 
Exacte, et il ne faut pas oublier que la 9700pro est cadencée à 325Mhz, contre 200Mhz pour une parhélia.
 
Ce que je veut dire , c'est que meme si théoriquement la parhélia traite 16 texture par passe contre 8 pour une 9700pro, quand la parhélia fait une passe, la 9700pro en fait environs 1.75
 
Donc au final, l'écart en texturing est tres loin d'être du simple au double entre ces deux cartes. Sans parler du bus mémoire. C'est bien jolie de traiter 16 textures en meme temps, faut-il encore que la mémoire puisse les délivrer et d'apres certain site hardware, meme les 19.6Go/s des 9700pro sont limite pour délivrer une tel quantité de donnée. J'ose pas trop imaginer avec une parhélia qui ne dispose d'aucune optimisation mémoire, les unité de texture doivent se tourner les pousses de temps en temps.


 
Le chip Parhelia est cadencé a deux vitesses differentes selon les versions de la carte : 200 Mhz pour les Bulk. 220 pour les retails. La mémoire tourne a 250 sur les Bulk et 275 sur les retail.
Pour info, les tests que j'ai publié plus haut proviennent de la version Retail a 220Mhz.
Cette précision mise a part, ce que tu dis est vrai.
D'une part le chip de la Parhelia tourne beaucoup moins vite que celui de la R9700 ensuite l'utilisation de la puissance de texturing maximale de la parhelia est subordonnée d'abord au fait que le jeu utilise son potentiel maximal sur la majorité de la scene a afficher. Dans la pratique, actuellement, c'est pas le cas des jeux actuels.
Ensuite il est clair que ce qui limite les deux cartes, c'est la bande passante mémoire. Et la Parhelia se retrouve avec beaucoup de boulot supplémentaire du fait de l'abscence de HSR qui eviterait le rendu des parties cachées.
Donc clairement, les deux cartes ont toutes les deux un bus a 256bits DDR. La R9700 fait meilleur usage de sa bande passante mémoire en 3Dque la Parhelia.
Tu as raisobn sur la Parhelia, il y a un certain nombre de circuits qui doivent se tourner les pouces souvent alors que sur la R9700 ils sont utilisés au maximum le plus souvent possible..
 
Ceci etant dit. On peut tout de même se demander si tout est si rose que ça du coté des ATI.
D'une part l'architecture 8X1 est particulière. Clairement, ça tends a optimiser "a mort" la vitesse de rendu sur les scenes en single texturing. D'ou la possibilité pour ATI de se prévaloir de scores particulièrement valorisants sur des benchs un peu anciens. Et comme on l'a dit plus haut, c'est totalement inutile de dépasser un certain nombre de fps car l'écran ne rendra pas une seule image de plus que sa fréquence de balayage verticale.
Ensuite, cette architecture tends a introduire plus de variabilité dans le rendu des scenes.
Par exemple, telle image comportant un effet central en quad text peut être lente a rendre. Il suffit que le point de vue change legèrement et que cet effet disparaisse de l'écran pour que le framerate remonte.
Ca n'est pas un avantage car l'irrégularité de framerate est parfois plus gènant qu'un framerate bas mais régulier.
Quand au HSR, je pense qu'il est evident que Matrox aurait interet a l'implémenter dans le futur. Ne fut ce que parce qu'il est evident que si ils veulent garder une bonne image sur le marché des gammers, il faut rester dans la course aux fps.
Cela dit, on peut se demander si il n'introduit pas lui aussi des irrégularités dans le rendu.
De fait, sur Radeon 8500 dans le jeu Unreal Tournament pourtant assez ancien maintenant, on j'ai pu noter des irégularités de framerate perceptibles et gènantes a certains endroits des maps (J'ai bien refait le test de repasser au même endroit: Même résultat). Et cela, sans pousser les reglages au max et en 1024*768 seulement.
Test fait avec la Parhelia : Pas d'irrégularités. Le framerate reste très stable.
 
 
Donc se méfier : Les grands chiffres ne disent pas tout. Il y a aussi des petits détails importants que les benchs ne révèlent pas forcément.


Message édité par sr16 le 08-02-2003 à 21:42:28

---------------
TOPIC PERMANENT Matrox Parhelia
n°2202869
noelemac
Posté le 08-02-2003 à 23:42:02  profilanswer
 

Effectivement.  
 
Une petite chose pour commencer, tu compare une carte (8500) à 140? à une carte qui coute 500?...  
Il est certainement plus judicieux de la comparer avec une carte plus proche en prix comme la 9700pro que l'on trouve a 400? (et pourtant encore 100? moins chére  :whistle: ).
 
Ensuite, je ne te contredit pas sur le faite que le frame rate d'une 8500 peut être cahotique, mais son architecture est autrement plus simple qu'un chip R300.
 
Comme tu le dit, le parhélia est optimal pour des jeux utilisant 4 textures par "face" mais il faut etre réaliste, aucun jeux, meme future ne place 4 texture à chaque polygone et quand bien meme un jeux ne ferai que ca, je suis intimement persuadé que le parhélia ne pourai pas utiliser ses 4*4 pixel pipeline à cause de sa bande passante (pas de HSR, pas d'optimisation type compression du ZBuffer, compression des couleurs etc...)
 
Enfin, je dirai que ATI essaye effectivement de faire des cartes tres rapides mais aussi de tres bonne qualité.
 
Le FSAA 6x d'ati est équivalent en qualité au AA16x de matrox, quand à l'anisotropic filtering, le 2x de matrox, bien que présent est un peu leger comparé a un aniso 16x ATI.
 
En gros, matrox c'est une tres bonne qualité 2D et ATI une tres bonne qualité 3D. Surtout qu'il est tres consevable d'utiliser une R300 en 1280*768 Fsaa4x et aniso trilinéaire 16x dans les jeux actuel, et pour moi c'est important.
 
Pour finir, j'aime bien l'idée d'ATI d'utiliser les pixelshader pour améliorer la qualité des video et bientot des divx. Encore un pas vers une meilleur qualité vidéo.
 
Quand on sait que les écrans LCD DVI sont de moins en moins chére, la qualité numérique est à porté de plus en plus de monde et ca devient le top:  :love:  Qualité optimal, les toutes derniéres technologies en matiére de 3D et une vitesse assez élevé pour aborder l'avenir serainement.  :jap:


Message édité par noelemac le 08-02-2003 à 23:42:45
mood
Publicité
Posté le 08-02-2003 à 23:42:02  profilanswer
 

n°2203542
muzah
Bal Musette @ HFR depuis 1997
Posté le 09-02-2003 à 12:59:40  profilanswer
 

cela dit on peut prendre en compte le fait que le Parhelia est sorti dans la même période que le 8500. Je pense donc qu'il est bon qu'au delà du prix, on s'en tienne parfois à un regard purement technique et voir l'avancée effective de matrox dans le domaine.
 
C'était un peu le cas de Dreamcast quand la PS2 est sortie. Beaucoup de gens disait que la PS2 était plus puissante et les jeux plus beau. Il s'est avéré que Dreamcast à proposé jusqu'au bout des jeux au moins du même niveau graphique que la PS2 alors que sortie 2 ans avant ! Pour qu'une architecture tienne encore face à une autre sortie quelques mois voire quelques années plus tard, il faut qu'elle soit sacrément efficace !
 
Je pense que le Parhelia est du même accabit, dans une moindre mesure peut-être. Si le compare aux produit sorti dans la même période, on peut penser que le parhelia était tout de même un peu trop en avance ... et finalement se retrouve un peu en retard par rapport à la nouvelle génération de carte ! Dommage.


---------------
un instant monsieur ça-va-chier
n°2203635
noelemac
Posté le 09-02-2003 à 13:36:10  profilanswer
 

muzah a écrit :

cela dit on peut prendre en compte le fait que le Parhelia est sorti dans la même période que le 8500. Je pense donc qu'il est bon qu'au delà du prix, on s'en tienne parfois à un regard purement technique et voir l'avancée effective de matrox dans le domaine.
 
C'était un peu le cas de Dreamcast quand la PS2 est sortie. Beaucoup de gens disait que la PS2 était plus puissante et les jeux plus beau. Il s'est avéré que Dreamcast à proposé jusqu'au bout des jeux au moins du même niveau graphique que la PS2 alors que sortie 2 ans avant ! Pour qu'une architecture tienne encore face à une autre sortie quelques mois voire quelques années plus tard, il faut qu'elle soit sacrément efficace !
 
Je pense que le Parhelia est du même accabit, dans une moindre mesure peut-être. Si le compare aux produit sorti dans la même période, on peut penser que le parhelia était tout de même un peu trop en avance ... et finalement se retrouve un peu en retard par rapport à la nouvelle génération de carte ! Dommage.


 
Pour moi en informatique, je regarde jamais QUAND ça sort. Mais plutot qu'est-ce que cela m'apporte de nouveaux.
 
L'exemple le plus frappant en ce moment c'est les GForce FX qui bien que sortie 6 mois apres les 9700pro sont équivalente en puissance (Malgrés qu'elles soient bien plus puissante sur le papier et aussi beaucoup plus chére).  
 
 
Perso, je juge une carte sur (pas dans l'orde):
 
-Ses performances
-Ses caractéristiques techniques (Full DX9)
-Sa qualité de fabrication
-Et son prix
 
Bien que la parhélia soit sortie avant une 9700pro, (testée le 25 Juin 2002 sur hardware.fr et le 9700pro le 24 Octobre 2002) ce qui donne 4 mois environs. Donc comparé une 8500 sortie fin 2001 a une carte 3 fois plus chére et sortie mis 2002  :heink:  :heink:  
 
Je sais pas ou tu a vu que le 8500 etait sorti en meme temps que la parhélia...


Message édité par noelemac le 09-02-2003 à 13:37:05
n°2203683
EnforcerZ
Force et Courage
Posté le 09-02-2003 à 13:57:02  profilanswer
 

Cela serait fort interessant de voir combien fait la Matrox sous Unreal2, car UT2003 n'est pas aussi gourmand !

n°2203690
noelemac
Posté le 09-02-2003 à 14:01:31  profilanswer
 

EnforcerZ a écrit :

Cela serait fort interessant de voir combien fait la Matrox sous Unreal2, car UT2003 n'est pas aussi gourmand !


 
ou meme doom3 quand il sera sortie (ou encore 3dmark2003 lundi soir...)

n°2205303
sr16
@*#%$*%§!!
Posté le 09-02-2003 à 22:45:14  profilanswer
 

noelemac a écrit :

Effectivement.  
 
Une petite chose pour commencer, tu compare une carte (8500) à 140? à une carte qui coute 500?...  
Il est certainement plus judicieux de la comparer avec une carte plus proche en prix comme la 9700pro que l'on trouve a 400? (et pourtant encore 100? moins chére  :whistle: ).


 
Tout a fait. Il est injuste de comparer ces deux cartes pour cette raison.  
Je parle de la 8500 parce que j'en ai une et que je peut etablire des points de comparaison techniques.
En l'occurence, c'était de savoir si il est judicieux de se fier toujours aux chiffres des benchs comme etant représentatifs de la vitesse d'une carte.  
Il y a aussi des choses dont on n'a pas parlé si on voulait comparer ces deux cartes et qui ne sont pas représentés dans les benchs. La construction physique de la Parhelia fait apparement appel a beaucoup de composants haut de gamme.
C'est un peu comme si on compare deux voitures par leurs chiffres de vitesse de pointe. Les performances d'une bonne BMW sont a la portée d'une GTI un peu tunée.  
 

Citation :

Ensuite, je ne te contredit pas sur le faite que le frame rate d'une 8500 peut être cahotique, mais son architecture est autrement plus simple qu'un chip R300.


 
Je me suis sans doute mal exprimé. C'est simplement que je voulais dire qu'au dela des chiffres exprimés par les benchs il y a des choses que l'on remarque en pratique mais qui passent a côté d'un test par bench.
Je ne doute pas que la R9700 est autrement plus rapide qu'une R8500. Mais fondamentalement, c'est les mêmes techniques qui sont appliquées même si elles ont été améliorées.  
Je voulais aussi simplement dire qu'il est difficile de comparer deux cartes simplement par les chiffres de vitesses car certaines architectures néanmoins très véloces peuvent présenter des effets de bord.
La comparaison que j'établissait entre la Parhelia et la Radeon 8500 est interessante. Dans les benchs, une R8500 bien cadencée peut concurencer une Parhelia (Et même apparement une R9700 avec un bon overclock si on y regarde pas de trop près).  
De plus, la R9700 est une 8X1 alors que la R8500 est une 4x2. C'est pas vraiment fait en théorie pour améliorer la stabilité du framerate.
Bien sûr, tout ceci est théorique. Et il va de soi que si on veut surtout jouer, le choix d'une R9700 conviendra sûrement beaucoup mieux que celui d'une Parhelia.
 

Citation :

Comme tu le dit, le parhélia est optimal pour des jeux utilisant 4 textures par "face" mais il faut etre réaliste, aucun jeux, meme future ne place 4 texture à chaque polygone et quand bien meme un jeux ne ferai que ca, je suis intimement persuadé que le parhélia ne pourai pas utiliser ses 4*4 pixel pipeline à cause de sa bande passante (pas de HSR, pas d'optimisation type compression du ZBuffer, compression des couleurs etc...)


 
Je le pense aussi que dans ce cas, la bande passante de la Parhelia serait insuffisante. Les tests tendent d'ailleurs a le confirmer.  
Il est clairement evident que comme par le passé, Matrox a utilisé un très gros bus pour compenser le manque d'algo d'optimisations.
Cela dit, ça n'a pas forcément que des inconvénients. Car qui dit algo d'optimisation dit souvent effets de bord. Tout programmeur sait qu'un algo de compression peut parfois dégénérer si les données ne lui plaisent pas. Et parfois il semble bien que certains jeux fonctionnent bizarrement suivant les cartes.
Et puis, Matrox a bien développé un bon algo d'optimisation : Le FAA.
Et question bande passante, tant qu'on ne tape pas au dessus de 1024*768, ça va.
 

Citation :

Enfin, je dirai que ATI essaye effectivement de faire des cartes tres rapides mais aussi de tres bonne qualité.


 
D'une part les ATI sont assemblées par beaucoup d'intégrateurs dont la plupart ne cherchent qu'a diminuer leurs couts. Ca aide pas pour la qualité. D'autre part personne ne fera plus de qualité que ce que les acheteurs demandent. C'est pas des philantropes.
Cela est valable pour tout le monde, que ce soit ATI, NVIDIA ou même Matrox.
Simplement, Matrox n'a pas la même cible de clientelle. La clientelle Matrox est plus exigeante en terme de qualité de détails.
Je me souvient encore de la G400 ou les possesseurs d'ATI et NVIDIA bavaient devant la qualité (et pas la vitesse) des graphismes 3D de la Matrox. (Et c'est encore le cas sur certains jeux 16 bits vu les tests fait plus haut entre une Parhelia et une Radeon 8500).
 
 

Citation :

Le FSAA 6x d'ati est équivalent en qualité au AA16x de matrox, quand à l'anisotropic filtering, le 2x de matrox, bien que présent est un peu leger comparé a un aniso 16x ATI.


 
Tout a fait.
 

Citation :

En gros, matrox c'est une tres bonne qualité 2D et ATI une tres bonne qualité 3D. Surtout qu'il est tres consevable d'utiliser une R300 en 1280*768 Fsaa4x et aniso trilinéaire 16x dans les jeux actuel, et pour moi c'est important.


 
Tout a fait aussi. C'est bien la raison pour laquelle je considère qu'un pur joueur aura plutot interet a prendre une R9700.
Mais il faut bien prendre conscience que pour celui qui bosse 8H par jour, c'est la qualité 2D qui lui importera le plus. Et la, pas de secret, le prix des composants de la Parhelia n'y est pas pour rien. N'importe quel electronicien amateur sait que les composants qui assurent la meilleur qualité de signal sont hors de prix.
 
 

Citation :

Pour finir, j'aime bien l'idée d'ATI d'utiliser les pixelshader pour améliorer la qualité des video et bientot des divx. Encore un pas vers une meilleur qualité vidéo.


 
A mon avis, c'est surtout pour gagner des transistors en supprimant la partie qui était dévolue a la décompression. En utilisant les shaders qui de toute façon sont la, on peut supprimer pas mal de transistors.
Cela dit, je ne suis pas certain qu'on puisse affirmer que ça conduit a une dégradation de la qualité. Ni le contraire.
Peut être qu'il y a techniquement tout a gagner a remplacer une partie décompression hardware vieillissante par un bon programme executé par les shaders (Décompression logicielle, mais faite par la carte).
 

Citation :

Quand on sait que les écrans LCD DVI sont de moins en moins chére, la qualité numérique est à porté de plus en plus de monde et ca devient le top:  :love:  Qualité optimal, les toutes derniéres technologies en matiére de 3D et une vitesse assez élevé pour aborder l'avenir serainement.  :jap:


 
Certes, mais il ne faut pas se voiler la face. Si les ecrans de base (1024*768) sont a des prix décents. Un bon ecran DVI capable d'un 1600x1200 frole encore les 20.000 frs. Prix a côté duquel le prix d'une Parhelia semble pichenette.
Pire, si tu veut faire du dual head a cette définition, c'est 2x 20.000 frs. Alors qu'il n'y a pas si longtemps tu pouvait faire ça avec deux G420 a 4500 balles pièce.
Pire encore, pour driver tes deux ecrans en DVI tu aura besoin d'une... Parhelia.
Et puis, autant pour travailler les ecrans LCD sont pas mal. Autant pour jouer, c'est pas encore aussi bien qu'un cathodique.
 


---------------
TOPIC PERMANENT Matrox Parhelia
n°2205389
sr16
@*#%$*%§!!
Posté le 09-02-2003 à 23:05:33  profilanswer
 

muzah a écrit :

cela dit on peut prendre en compte le fait que le Parhelia est sorti dans la même période que le 8500. Je pense donc qu'il est bon qu'au delà du prix, on s'en tienne parfois à un regard purement technique et voir l'avancée effective de matrox dans le domaine.
 
C'était un peu le cas de Dreamcast quand la PS2 est sortie. Beaucoup de gens disait que la PS2 était plus puissante et les jeux plus beau. Il s'est avéré que Dreamcast à proposé jusqu'au bout des jeux au moins du même niveau graphique que la PS2 alors que sortie 2 ans avant ! Pour qu'une architecture tienne encore face à une autre sortie quelques mois voire quelques années plus tard, il faut qu'elle soit sacrément efficace !
 
Je pense que le Parhelia est du même accabit, dans une moindre mesure peut-être. Si le compare aux produit sorti dans la même période, on peut penser que le parhelia était tout de même un peu trop en avance ... et finalement se retrouve un peu en retard par rapport à la nouvelle génération de carte ! Dommage.


 
Si on regarde en arrière, les Matrox ont toujours été plus ou moins dépassées en vitesse 3D et souvent beaucoup plus chères par rapport a la concurence. Mais avant on en faisait pas tout un plat.
Certes, la G400 etait au top a sa sortie. Mais ça n'a pas duré bien longtemps. Et Matrox a continué a vendre ce circuit dans diverses déclinaisons pendant très longtemps.
Je connais pas beaucoup d'acheteurs de Matrox G400 qui dise aujourd'huis qu'il regretent leur achat.  
Mieux, la G550 est toujours produite : Apparement elle se vends encore assez bien malgré ses perfs 3D dignes d'une Geforce 2mx200 (Mais des couleurs dans les jeux beaucoup plus jolies).
 
Alors, les acheteurs de Matrox sont des abrutis du même accabit que les acheteurs de Mac ?  
Non. Simplement ce sont des utilisateurs qui ont besoin d'autres fonctionnalités. Le fait d'avoir un vitesse 3D au top du top passe donc un peu au second plan.
 
 
 


---------------
TOPIC PERMANENT Matrox Parhelia
n°2205406
noelemac
Posté le 09-02-2003 à 23:16:19  profilanswer
 

Citation :

Tout a fait. Il est injuste de comparer ces deux cartes pour cette raison.  
Je parle de la 8500 parce que j'en ai une et que je peut etablire des points de comparaison techniques.
En l'occurence, c'était de savoir si il est judicieux de se fier toujours aux chiffres des benchs comme etant représentatifs de la vitesse d'une carte.  
Il y a aussi des choses dont on n'a pas parlé si on voulait comparer ces deux cartes et qui ne sont pas représentés dans les benchs. La construction physique de la Parhelia fait apparement appel a beaucoup de composants haut de gamme.
C'est un peu comme si on compare deux voitures par leurs chiffres de vitesse de pointe. Les performances d'une bonne BMW sont a la portée d'une GTI un peu tunée.


 
 :jap:  
 

Citation :

Je me suis sans doute mal exprimé. C'est simplement que je voulais dire qu'au dela des chiffres exprimés par les benchs il y a des choses que l'on remarque en pratique mais qui passent a côté d'un test par bench.
Je ne doute pas que la R9700 est autrement plus rapide qu'une R8500. Mais fondamentalement, c'est les mêmes techniques qui sont appliquées même si elles ont été améliorées.  
Je voulais aussi simplement dire qu'il est difficile de comparer deux cartes simplement par les chiffres de vitesses car certaines architectures néanmoins très véloces peuvent présenter des effets de bord.
La comparaison que j'établissait entre la Parhelia et la Radeon 8500 est interessante. Dans les benchs, une R8500 bien cadencée peut concurencer une Parhelia (Et même apparement une R9700 avec un bon overclock si on y regarde pas de trop près).  
De plus, la R9700 est une 8X1 alors que la R8500 est une 4x2. C'est pas vraiment fait en théorie pour améliorer la stabilité du framerate.


 
 :)  
 

Citation :

Bien sûr, tout ceci est théorique. Et il va de soi que si on veut surtout jouer, le choix d'une R9700 conviendra sûrement beaucoup mieux que celui d'une Parhelia.


 
 ;)  :)  
 

Citation :

Je le pense aussi que dans ce cas, la bande passante de la Parhelia serait insuffisante. Les tests tendent d'ailleurs a le confirmer.  
Il est clairement evident que comme par le passé, Matrox a utilisé un très gros bus pour compenser le manque d'algo d'optimisations.


 
effectivement  :jap:  
 

Citation :

Cela dit, ça n'a pas forcément que des inconvénients. Car qui dit algo d'optimisation dit souvent effets de bord. Tout programmeur sait qu'un algo de compression peut parfois dégénérer si les données ne lui plaisent pas. Et parfois il semble bien que certains jeux fonctionnent bizarrement suivant les cartes.


 
Pas trop d'accord sur ce point. Les algo sont pour le zbuffer et la compression de couleur non destructeur et les quelque bug d'affichage sont 99% du temps, dû a un probléme de driver. Ce n'est pas une excuse pour matrox de dire "je ne compresse pas les données de peur que dans 1 jeu sur 100, il y ait une erreur d'affichage qui se résourd par des nouveaux pilotes ou un patch.
 

Citation :

Et puis, Matrox a bien développé un bon algo d'optimisation : Le FAA.
Et question bande passante, tant qu'on ne tape pas au dessus de 1024*768, ça va.


 
Oui, matrox a bien développé un bon algo, mais en référence aux phrases précédentes, cet alogo n'est pas exempt de défaut.
 

Citation :

D'une part les ATI sont assemblées par beaucoup d'intégrateurs dont la plupart ne cherchent qu'a diminuer leurs couts. Ca aide pas pour la qualité. D'autre part personne ne fera plus de qualité que ce que les acheteurs demandent. C'est pas des philantropes.


 
Effectivement, si il y a des mauvais constructeur, je pense a powercolor, il y a aussi de tres bon constructeur: Hercules et Gigabyte. Et cette concurence entre constructeur augmente la qualité des cartes, des systéme de refroidissement, plus silencieux, plus efficace... Il y a d'ailleur une sacré différence de prix entre une hercules (450?) et une powercolor (380?).
 

Citation :


Cela est valable pour tout le monde, que ce soit ATI, NVIDIA ou même Matrox.
Simplement, Matrox n'a pas la même cible de clientelle. La clientelle Matrox est plus exigeante en terme de qualité de détails.
Je me souvient encore de la G400 ou les possesseurs d'ATI et NVIDIA bavaient devant la qualité (et pas la vitesse) des graphismes 3D de la Matrox. (Et c'est encore le cas sur certains jeux 16 bits vu les tests fait plus haut entre une Parhelia et une Radeon 8500).


 
Je suis d'accord, la clientele visé n'est pas la meme. Mais sur les quelques constructeur, il y en a toujour qui se démarque par une qualité acru, des composant de qualité et souvent un prix 10-15 % plus évelé...
 
 

Citation :

Tout a fait aussi. C'est bien la raison pour laquelle je considère qu'un pur joueur aura plutot interet a prendre une R9700.


 
 :jap:  
 

Citation :

Mais il faut bien prendre conscience que pour celui qui bosse 8H par jour, c'est la qualité 2D qui lui importera le plus. Et la, pas de secret, le prix des composants de la Parhelia n'y est pas pour rien. N'importe quel electronicien amateur sait que les composants qui assurent la meilleur qualité de signal sont hors de prix.


 
Effectivement. Meme si dans toute les entreprise ou j'ai bossé, ce n'est pas la qualité de la carte graphique qui est mauvaise mais l'ecran.  
 

Citation :

A mon avis, c'est surtout pour gagner des transistors en supprimant la partie qui était dévolue a la décompression. En utilisant les shaders qui de toute façon sont la, on peut supprimer pas mal de transistors.


 
certainement  :)  
 

Citation :

Cela dit, je ne suis pas certain qu'on puisse affirmer que ça conduit a une dégradation de la qualité. Ni le contraire.
Peut être qu'il y a techniquement tout a gagner a remplacer une partie décompression hardware vieillissante par un bon programme executé par les shaders (Décompression logicielle, mais faite par la carte).


 
Je pense surtout que cela apporte une flexibilité maximale a la carte. Avant, une carte comme la matrox ou une 8500 décompresser 1 ou 2 codec video en hardware. Maintenant, tout est possible et les résultats sont déja là !: Amélioration des video en streaming en virant les effets de pixelisation. Décodage mpeg2 et bientot décodage du format Divx en hardware ! Sans parler d'un possible futur encodage du divx en temps réel par la carte graphique. C'est une avancé énorme je trouve. La carte n'est plus limité au quelque codec prix en charge par la puce, elle peut utiliser la puissance des pixel shader pour appliquer un tas de filtre pour améliorer le rendu des video,  image etc. C'est qu'un début effectivement, mais je suis confiant sur l'avenir de cette technologie.
 

Citation :

Certes, mais il ne faut pas se voiler la face. Si les ecrans de base (1024*768) sont a des prix décents. Un bon ecran DVI capable d'un 1600x1200 frole encore les 20.000 frs. Prix a côté duquel le prix d'une Parhelia semble pichenette.
Pire, si tu veut faire du dual head a cette définition, c'est 2x 20.000 frs. Alors qu'il n'y a pas si longtemps tu pouvait faire ça avec deux G420 a 4500 balles pièce.
Pire encore, pour driver tes deux ecrans en DVI tu aura besoin d'une... Parhelia.
Et puis, autant pour travailler les ecrans LCD sont pas mal. Autant pour jouer, c'est pas encore aussi bien qu'un cathodique.


 
effectivement, pour les jeux c'est pas le top un lcd mais de tt facon, en 1600*1200, la parhélia ne tiendra pas le choc longtemps. De plus, tout le monde n'a pas besoins d'un ecran qui affiche 1600*1200 a 85hz. Je suis sur que minimum 50% des possesseur des parhélia travaillent en 1280*1024. et des lcd DVI 17" on en trouve de plus en plus d'abordable.  
 
Donc si matrox se borne a rester hyper bon en 2D CRT, dans 3 ans il n'existera plus. Un peut comme 3Dfx que l'on croyait indétronable et qui n'a pas suivit Nvidia et sont "révolutionnaire" T&L (attention, y'a des ""  ;) )
 
A mon avis, matrox doit revoir entiérement ses priorités et ce dire que d'ici quelque année, la qualité 2D dépendra de l'ecran et plus de la carte 3D.
A mon avis, au pays du soleil levant, ou tout le monde posséde son LCD, les ventes de matrox doivent pas être terrible. Chez nous en europe, avec le prix des TFT DVI, matrox a encore quelque année devant lui, mais pas plus. Sauf si il inove un peut plus.

n°2205461
sr16
@*#%$*%§!!
Posté le 09-02-2003 à 23:31:59  profilanswer
 

noelemac a écrit :


 
Pour moi en informatique, je regarde jamais QUAND ça sort. Mais plutot qu'est-ce que cela m'apporte de nouveaux.
 
L'exemple le plus frappant en ce moment c'est les GForce FX qui bien que sortie 6 mois apres les 9700pro sont équivalente en puissance (Malgrés qu'elles soient bien plus puissante sur le papier et aussi beaucoup plus chére).  
 
 
Perso, je juge une carte sur (pas dans l'orde):
 
-Ses performances
-Ses caractéristiques techniques (Full DX9)
-Sa qualité de fabrication
-Et son prix
 
Bien que la parhélia soit sortie avant une 9700pro, (testée le 25 Juin 2002 sur hardware.fr et le 9700pro le 24 Octobre 2002) ce qui donne 4 mois environs. Donc comparé une 8500 sortie fin 2001 a une carte 3 fois plus chére et sortie mis 2002  :heink:  :heink:  
 
Je sais pas ou tu a vu que le 8500 etait sorti en meme temps que la parhélia...


 
Oui, il me semble que le R8500 est sorti il y a maintenant plus d'un an.
 
De toute façon, a sa sortie le R8500 etait pas donné. Et si on le trouve nettement moins cher aujourd'huis, c'est des cartes a la qualité de fabrication qui n'a rien a voir avec la Parhelia.
De plus, il n'a pas si tort que ça de comparer la Parhelia avec la R8500. C'est surement la même génération de conception.  
Mais chez ATI on sort la carte même si elle est moyennement au point (Et oui, la R8500 par ex est réellement plus capricieuse qu'une G400 Matrox).
Chez Matrox ils sortent depuis toujours des cartes relativement au point des le départ, ce qui justifie un retard de quelques mois dans la sortie.
Et aussi loin que je m'en souvienne, ça a toujours été le cas. Je me souviens des premières ATI rage Fury qui n'ont jamais marché correctement. Par contre, j'ai jamais vu une Matrox qui vient de sortir poser de très gros problèmes.
La question, c'est de savoir si on est pret a avoir une carte instable dont les drivers seront au point que plusieurs mois après. Pour un utilisateur pro, c'est NON. On préfère nettement se passer d'un peu de perfs.
 
Sans compter que personellement, j'apprécie toujours d'avoir un beau driver tout neuf sur les derniers OS pour la vieille millénium d'il y a 6 ans. Sans compter que ces cartes sont encore capable d'un piqué en 1600x1200 supérieur aux ATI/NVIDIA.
Ca aussi, c'est aussi facteur de sacré economies a long terme.
 
Pour ce qui est de DX9, je pense que aujourd'huis, c'est pas un critère d'achat de carte.  
Avant que les jeux n'exploitent DX9, de l'eau aura coulé sous les ponts. Et la R9700 sera a ce moment la trop lente pour tourner vraiment sous ces jeux avec les fonctionnalités DX9.
De plus, il s'averera que si la carte est compatible avec DX9, il faudra pas compter sur le fait qu'elle soit optimisée réellement pour DX9.
 
 
Pour ce qui est de la qualité de fabrication, il semblerait suivant ce qu'en a dit la presse que la Parhelia fait appel a des composants très couteux. (La RAM et le GPU ne sont pas tout...).
Ca se voit moins. Comparativement, les ATI et NVIDIA soignent souvent plus les détails de fabrication... visuels.
 
De toute façon, c'est assez compréhensible que chacun des protagoniste soigne sa fabircation en fonction des critères de choix de la clientelle visée.
 
 
 


---------------
TOPIC PERMANENT Matrox Parhelia
n°2205528
noelemac
Posté le 09-02-2003 à 23:57:18  profilanswer
 

Citation :


 
Oui, il me semble que le R8500 est sorti il y a maintenant plus d'un an.
 
De toute façon, a sa sortie le R8500 etait pas donné. Et si on le trouve nettement moins cher aujourd'huis, c'est des cartes a la qualité de fabrication qui n'a rien a voir avec la Parhelia.
De plus, il n'a pas si tort que ça de comparer la Parhelia avec la R8500. C'est surement la même génération de conception.


 
Je ne suis pas contre comparer une 8500 a une matrox, loin de moi cette idée, mais dire que la 8500 est de meme conception que la parhélia  :heink:  Faut pas oublier que la parhélia etait une des premiéres cartes a etre optimiser pour certaine fonction DX9. Pour moi cette carte avait 1 génération d'avance sur la 8500.
 

Citation :

Mais chez ATI on sort la carte même si elle est moyennement au point (Et oui, la R8500 par ex est réellement plus capricieuse qu'une G400 Matrox).
Chez Matrox ils sortent depuis toujours des cartes relativement au point des le départ, ce qui justifie un retard de quelques mois dans la sortie.


 
Je précise je ne suis pas un ATI fous  ;) Ni un NVidia ni rien d'autre. J'essaye d'aller la ou j'y ai un interet, comme toi.
Je dit ça car dire que la Parhélia est sortie au point dés le départ ca me fait un peut sourir (un tout petit peu). Déja, si matrox n'est pas a quelque mois prés, pourquoi sortir une carte a moitier compatible DX9 ? Juste pour sortir avant les R300, marketing oblige et ainsi ne pas etre comparer a un r300 mais a un 8500 mois rapide. C'est normal, tout les constructeurs sont avant tout des vendeurs...
 

Citation :

Et aussi loin que je m'en souvienne, ça a toujours été le cas. Je me souviens des premières ATI rage Fury qui n'ont jamais marché correctement. Par contre, j'ai jamais vu une Matrox qui vient de sortir poser de très gros problèmes.
La question, c'est de savoir si on est pret a avoir une carte instable dont les drivers seront au point que plusieurs mois après. Pour un utilisateur pro, c'est NON. On préfère nettement se passer d'un peu de perfs.


 
J'ai jamais essayé de carte ATI avant celle la, j'ai eu une 3dfx2, une 3dfx3, une GForce DDR puis ma 9700pro. Mais je n'ai pour le moment aucun pb de driver.
 
Cela mise a part, je suis tout a fait d'accord pour dire que les drivers des ATI sont plus capricieux mais je serai curieux de voir le nombre de topic sur les Pb avec la parhélia si on en vendai autant que de 8500. Quand on vent 1 parhélia, on vend peut etre 20 carte 8500. Ce qui fait 20 fois plus de config différente et surtout, 20 fois plus de chance d'avoir de pb.  
Enfin, quand je voit (j'ai lu un peut ce topic, il est tres interressant soit dit en passant  :jap: )  qu'en passant la taille de l'agp de 64Mo a 256Mo on double parfois les perf ... Je me dit, ou est l'optimisation matrox dans tout ca ? Pk cette carte a 128Mo ne marche pas correctement avec un aperture size de 64Mo ? Pour moi c'est un bug, et un jolie en plus. Et comme cette carte est peu utilisé par des poweruser, personne ne va ce penser sérieusement sur le PB.  
 
Les drivers Omega pour les ATI sont faient par des passionné d'info en puissance et sont presque plus rapide que les drivers made by ATI. Du coté de matrox y'a pas cette communauté, ou alors elle est peu présente et a mon avis, ce pb d'agp restera comme ca jusqu'a la fin. Domage :(  
 

Citation :

Sans compter que personellement, j'apprécie toujours d'avoir un beau driver tout neuf sur les derniers OS pour la vieille millénium d'il y a 6 ans. Sans compter que ces cartes sont encore capable d'un piqué en 1600x1200 supérieur aux ATI/NVIDIA.
Ca aussi, c'est aussi facteur de sacré economies a long terme.


 
Effectivement, surtout pour des pro, mais meme avec un piqué génial, je me voit pas rester avec une G400. Donc dans tout les cas je change de carte tt les 2 ans environs.
 

Citation :

Pour ce qui est de DX9, je pense que aujourd'huis, c'est pas un critère d'achat de carte.  
Avant que les jeux n'exploitent DX9, de l'eau aura coulé sous les ponts. Et la R9700 sera a ce moment la trop lente pour tourner vraiment sous ces jeux avec les fonctionnalités DX9.
De plus, il s'averera que si la carte est compatible avec DX9, il faudra pas compter sur le fait qu'elle soit optimisée réellement pour DX9.


 
Tout a fait d'accord, mais quand on prend une 9700 ce n'est pas pour Dx9 mais pour le FSAA, l'aniso et les jeux en 1600*1200.
 

Citation :

Pour ce qui est de la qualité de fabrication, il semblerait suivant ce qu'en a dit la presse que la Parhelia fait appel a des composants très couteux. (La RAM et le GPU ne sont pas tout...).
Ca se voit moins. Comparativement, les ATI et NVIDIA soignent souvent plus les détails de fabrication... visuels.


 
Effectivement, plus couteux. Mais tout ce qui est chere n'est pas forcément bon. Il n'y a pas de concurence chez matrox. Matrox fait tout et c'est pas bon d'un coté financier. Chez ATI, y'en a pour toutes les bourses, des pas chére pas top, des chére top etc. Et une concurence joue entre eux aussi d'ou une baisse des prix.
 
J'accepte le faite que matrox met des composant de meilleur qualité mais je trouve qu'il nous prend pour des "vache a lait". Ce n'est pas les composant filtre etc. qui font 90% du prix de la carte, et en l'absence de concurence sur ce secteur (pro-qualité 2D), matrox en profite pour remplir ses poches. Et la parhélia est plus proche réelement des 400? que des 500? actuel.  
Ati aussi fait bcp d'effort, mais il y a NVidia a coté donc on baisse les prix.
 

Citation :

De toute façon, c'est assez compréhensible que chacun des protagoniste soigne sa fabircation en fonction des critères de choix de la clientelle visée.


 
Effectivement. Mais un peut de concurence sur le secteur pro de matrox ne ferai que du bien a tout le monde. :jap:

n°2205600
sr16
@*#%$*%§!!
Posté le 10-02-2003 à 00:27:47  profilanswer
 


Citation :

Citation :

Cela dit, ça n'a pas forcément que des inconvénients. Car qui dit algo d'optimisation dit souvent effets de bord. Tout programmeur sait qu'un algo de compression peut parfois dégénérer si les données ne lui plaisent pas. Et parfois il semble bien que certains jeux fonctionnent bizarrement suivant les cartes.


 
Pas trop d'accord sur ce point. Les algo sont pour le zbuffer et la compression de couleur non destructeur et les quelque bug d'affichage sont 99% du temps, dû a un probléme de driver. Ce n'est pas une excuse pour matrox de dire "je ne compresse pas les données de peur que dans 1 jeu sur 100, il y ait une erreur d'affichage qui se résourd par des nouveaux pilotes ou un patch.


 
Je pense que c'est surtout pour gagner du temps que Matrox n'a pas développé des algos de compression. Peut être le feront ils sur la P2.
Mais si les algos sont non destructeurs, ça veut forcément dire qu'il y a risque de dégénération.
Il n'y a pas de secret, une compression réduit les schémas de données potentiellement exprimables.  
Donc deux solutions dans le cas ou les données rencontrées sont en dehors des possibilités de la compression. Soit ce qui dépasse est détruit (Cas de la compression destructive). Soit l'algo bute et fait appel a des procédures particulières pour stocker les données en metant a la fois beaucoup plus de temps et en prenant plus de place (dégénéréscence).
Cela dit, ça ne veut pas dire que cet algo n'est pas interessant. Je pense d'ailleurs que Matrox a fortement interet a implémenter au moins certains d'entre eux sur le Parhelia 2 (Au moins le HSR).
 

Citation :

Citation :

Et puis, Matrox a bien développé un bon algo d'optimisation : Le FAA.
Et question bande passante, tant qu'on ne tape pas au dessus de 1024*768, ça va.


 
Oui, matrox a bien développé un bon algo, mais en référence aux phrases précédentes, cet alogo n'est pas exempt de défaut.


 
Tout a fait.
 
Ca confirme d'ailleurs ce que je dis : Tout algo d'optimisation pose des problèmes.
Bien sûr, on peut souvent dire que le bénéfice est supérieur au côté négatif. Mais il ne faut pas prendre cela pour une panacée.
La démonstration plus haut voulait dire que il vaut mieux un gros moteur sans les optimisations qu'un petit moteur avec pleins d'algo d'optimisations. Même quand les benchs de vitesse donnent des chiffres de vitesse similaire. Ce qu'ils ne montrent pas, c'est tous les cas ou les algos d'optimisations déconnent.
 

Citation :

Citation :

D'une part les ATI sont assemblées par beaucoup d'intégrateurs dont la plupart ne cherchent qu'a diminuer leurs couts. Ca aide pas pour la qualité. D'autre part personne ne fera plus de qualité que ce que les acheteurs demandent. C'est pas des philantropes.


 
Effectivement, si il y a des mauvais constructeur, je pense a powercolor, il y a aussi de tres bon constructeur: Hercules et Gigabyte. Et cette concurence entre constructeur augmente la qualité des cartes, des systéme de refroidissement, plus silencieux, plus efficace... Il y a d'ailleur une sacré différence de prix entre une hercules (450?) et une powercolor (380?).


 
Clairement il y en a qui jouent le bas de gamme, d'autres le haut de gamme.  
Mais il semble que l'on doive classer Matrox encore au dessus a ce niveau la. Il semble que cette carte fasse appel a des composants qui n'ont rien a voir avec ce qu'il y a sur les autres cartes.
C'est d'ailleurs assez plausible que cette carte leur coute très cher. Si ça n'était pas le cas ils l'auraient déja baissé vu le peu de succès qu'elle rencontre. Si ils pouvaient la baisser, ils en vendraient pleins et gagneraient beaucoup plus d'argent.
 
 

Citation :

Citation :


Cela est valable pour tout le monde, que ce soit ATI, NVIDIA ou même Matrox.
Simplement, Matrox n'a pas la même cible de clientelle. La clientelle Matrox est plus exigeante en terme de qualité de détails.
Je me souvient encore de la G400 ou les possesseurs d'ATI et NVIDIA bavaient devant la qualité (et pas la vitesse) des graphismes 3D de la Matrox. (Et c'est encore le cas sur certains jeux 16 bits vu les tests fait plus haut entre une Parhelia et une Radeon 8500).


 
Je suis d'accord, la clientele visé n'est pas la meme. Mais sur les quelques constructeur, il y en a toujour qui se démarque par une qualité acru, des composant de qualité et souvent un prix 10-15 % plus évelé...


 
Je pense que 10-15% de différence de prix ne permet pas réellement de mettre des composants réellement beaucoup plus chers. Juste d'améliorer un peu.
 
Si je prends l'exemple de la R8500, si on compare celle de powercolor (La LELELELELE) et celle de hercules, la fabrication est effectivement meilleur dans le cas de la hercules. Mais rien de foncièrement transcendant comme différence au fond.
La qualité très pourite de la Powercolor en 2D tient dans l'économie du connecteur VGA (La hercules a un DVI et un VGA) et a la founiture d'un adaptateur DVI-VGA de piètre qualité (J'ai utilisé ceux fournis par Matrox pour le verifier.)
Le PCB de la hercules est nettement plus grand. Mais ça tient au fait qu'ils utilisent 8 chips de mémoire au lieu de 4 sur la powercolor. Sinon la vitesse des chips est la même (4ns).  
La Hercules toune plus vite, mais les chips de mémoire sont très chauds(Trop).
Au final, un leger mieux pour hercules. Mais les differences sont pas si enorme que ça.  
(En plus, le ventirad de la Hercules m'a laché : La powercolor tourne encore).
 
 

Citation :

Citation :

Mais il faut bien prendre conscience que pour celui qui bosse 8H par jour, c'est la qualité 2D qui lui importera le plus. Et la, pas de secret, le prix des composants de la Parhelia n'y est pas pour rien. N'importe quel electronicien amateur sait que les composants qui assurent la meilleur qualité de signal sont hors de prix.


 
Effectivement. Meme si dans toute les entreprise ou j'ai bossé, ce n'est pas la qualité de la carte graphique qui est mauvaise mais l'ecran.


 
Mais ce n'est pas le cas partout au monde. En allemagne par exemple, le prix des écrans et du filtre dépasse souvent le prix de l'ordinateur.  
Pour moi les Français sont des abrutis car la productivité s'en ressent : C'est pas une bonne economie.
Moi j'ai un Sony F520 avec par dessus un Filtre polarisant 3M qui coute pres de 1500 frs. Je peut te dire que c'est top.
 
 

Citation :

Je pense surtout que cela apporte une flexibilité maximale a la carte. Avant, une carte comme la matrox ou une 8500 décompresser 1 ou 2 codec video en hardware. Maintenant, tout est possible et les résultats sont déja là !: Amélioration des video en streaming en virant les effets de pixelisation. Décodage mpeg2 et bientot décodage du format Divx en hardware ! Sans parler d'un possible futur encodage du divx en temps réel par la carte graphique. C'est une avancé énorme je trouve. La carte n'est plus limité au quelque codec prix en charge par la puce, elle peut utiliser la puissance des pixel shader pour appliquer un tas de filtre pour améliorer le rendu des video,  image etc. C'est qu'un début effectivement, mais je suis confiant sur l'avenir de cette technologie.


 
Je pense que tu as raison.
Ca permetra de faire beaucoup de chose qu'une technologie de compression en Hardware cablé ne permet pas.
De plus, je pense que les Shaders sont (Ou seront dans le futur) largement assez rapides pour ça. Et au niveau qualité on y gagnera.
 

Citation :

Citation :

Certes, mais il ne faut pas se voiler la face. Si les ecrans de base (1024*768) sont a des prix décents. Un bon ecran DVI capable d'un 1600x1200 frole encore les 20.000 frs. Prix a côté duquel le prix d'une Parhelia semble pichenette.
Pire, si tu veut faire du dual head a cette définition, c'est 2x 20.000 frs. Alors qu'il n'y a pas si longtemps tu pouvait faire ça avec deux G420 a 4500 balles pièce.
Pire encore, pour driver tes deux ecrans en DVI tu aura besoin d'une... Parhelia.
Et puis, autant pour travailler les ecrans LCD sont pas mal. Autant pour jouer, c'est pas encore aussi bien qu'un cathodique.


 
effectivement, pour les jeux c'est pas le top un lcd mais de tt facon, en 1600*1200, la parhélia ne tiendra pas le choc longtemps. De plus, tout le monde n'a pas besoins d'un ecran qui affiche 1600*1200 a 85hz. Je suis sur que minimum 50% des possesseur des parhélia travaillent en 1280*1024. et des lcd DVI 17" on en trouve de plus en plus d'abordable.


 
Pour le jeu en 3D, on a pas forcément besoin de 1600x1200 (Même si c'est beau). C'est clair. Et c'est clair aussi que la Matrox n'aime pas monter en résolution en 3D du fait de l'abscence de HSR.
Pour travailler par contre, c'est clairement indispensable.
Pire, je peut même chiffrer le gain de productivité entre 1280x1024 et 1600*1200.
Parfois on atteint 40% car on peut avoir 4 fenêtres sur le même écran. Et les softs actuels ont pleins de fenêtres partout (Photoshop, DreamWeaver, Visual C++, etc...)
Avoir du 1600x1200 ça permet de bosser notablement plus vite.
Donc pour bosser : 1600x1200 indispensable.
 
 

Citation :

Donc si matrox se borne a rester hyper bon en 2D CRT, dans 3 ans il n'existera plus. Un peut comme 3Dfx que l'on croyait indétronable et qui n'a pas suivit Nvidia et sont "révolutionnaire" T&L (attention, y'a des ""  ;) )


 
C'est clair.
 
Le fait que la Parhelia soit un bon produit aujourd'huis ne signifie pas que leur carte resteront de bons produits demain.
De fait, la disparition du VGA analogique encore incontournable aujourd'huis pour nous pourait leur faire bobo si ils n'ont rien d'autre a apporter.
 
 

Citation :

A mon avis, matrox doit revoir entiérement ses priorités et ce dire que d'ici quelque année, la qualité 2D dépendra de l'ecran et plus de la carte 3D.


 
Tout a fait.
 

Citation :

A mon avis, au pays du soleil levant, ou tout le monde posséde son LCD, les ventes de matrox doivent pas être terrible. Chez nous en europe, avec le prix des TFT DVI, matrox a encore quelque année devant lui, mais pas plus. Sauf si il inove un peut plus.


 
Les bons LCD pour un usage pro sont encore chers partout. Mais on peut effectivement penser que dans peu de temps ça sera fini.
Déja, des fabricants comme Sony arrêtent leur fabrications de tubes haut de gamme et on ne trouve déja plus certains modèles.
 
Donc, oui Matrox a interet a se remuer.
 
Je pense qu'ils en ont les moyens.  
 
Je pense aussi que pour la Parhelia 2 on peut s'attendre a quelque chose de nettement mieux en terme de perfs.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2205622
Zeross
Posté le 10-02-2003 à 00:39:20  profilanswer
 

Sr16 a écrit :


 
Euh ? Logiquement la 9700 ne devrait pas avoir la possibilité de traiter 16 textures par passes. D'apres ce qu'on en sait, c'est une architecture 8x1. Elle ne doit pouvoir en traiter logiquement que 8 par cycle.


 
Tu confonds entre par cycle et par passe: le fait que ce soit une architecture 8*1 ne l'empêche en rien de traiter 16 textures par passe tout comme les GF3/4 sont des architectures 4*2 et traitent 4 textures par passe et la Radeon 8500 4*2 également traite 6 textures par passe.


Message édité par Zeross le 10-02-2003 à 00:40:19

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2206977
sr16
@*#%$*%§!!
Posté le 10-02-2003 à 16:29:27  profilanswer
 

Zeross a écrit :


 
Tu confonds entre par cycle et par passe: le fait que ce soit une architecture 8*1 ne l'empêche en rien de traiter 16 textures par passe tout comme les GF3/4 sont des architectures 4*2 et traitent 4 textures par passe et la Radeon 8500 4*2 également traite 6 textures par passe.


 
Justement, je fais la difference. Ou ais-je fait une erreur ?
 
Car ce qui me parait important, c'est bien ce que la carte est capable de traiter PAR CYCLE d'horloge.  
Par exemple, si on applique 4 textures sur une architecture x*2, elle metra 2 cycles pour une passe ? ais-je fait une erreur ?
 
D'autre part, la fiche technique Matrox précise que le chip Parhelia est capable de traiter 64 echantillons de textures par cycle.
D'apres ce que j'en comprends, le parhelia est capable de traiter PAR CYCLE jusqu'a 4 textures sur chacun de ses 4 pixels pipelines. Donc 16 textures. Chacune de ces 16 textures est composée(En bilinéaire) a partir de 4 echantillons de texture. Ca fait donc jusqu'a 64 echantillons par cycle a sortir de la mémoire.
D'apres ce que j'en comprends aussi, en filtrage trilinéaire on passe a 8 echantillons par cycle par unité de texture. Donc dans cette configuration le Parhelia devient une architecture 4*2.  
En anisotropic, on passe a 16 echantillons par cycle. Chaque pixel pipeline n'est plus capable de traiter qu'une seule texture par Cycle.
 
Faudrait trouver des infos plus précises sur les autres chips.
 
Il y a aussi quelques infos ici : http://www.hardocp.com/image.html? [...] 8zX2wuZ2lm
 
Je pense que c'est interessant de comprendre tout ça dans le détail : Histoire de mieux optimiser son affichage.


Message édité par sr16 le 10-02-2003 à 16:43:16

---------------
TOPIC PERMANENT Matrox Parhelia
n°2207083
Ernestor
modo-coco :o
Posté le 10-02-2003 à 16:54:02  profilanswer
 

Salut  :hello:  
 
Je ne viens pas pour cet intervenir dans cet interessant debat mais pour faire une suggestion a Sr16 :
 
J'ai vu que t'as mis le lien vers ce topic dans ta signature. Je pense meme que ca pourrait etre interessant de le rajouter dans la liste des topics uniques. Dans ce cas, ca pourrait etre pas mal que tu fasses un resume de la situation dans le premier post avec les tableaux de tes differents benchmarks et aussi les infos sur le gain de perf en OpenGL avec l'AGP Aperture Size. Comme ca, je te le met et R et si tu rajoutes en plus quelques liens vers d'autres tests ou infos sur cette carte, ca passe en R+ :)


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2207447
Zeross
Posté le 10-02-2003 à 18:50:52  profilanswer
 

Sr16 a écrit :


 
Justement, je fais la difference. Ou ais-je fait une erreur ?


 
En disant que la R9700 ne peut pas appliquer 16 textures par passe, elle le peut certe pas en un cycle mais elle le peut grâce à un loopback.
 

Citation :

Car ce qui me parait important, c'est bien ce que la carte est capable de traiter PAR CYCLE d'horloge.  
Par exemple, si on applique 4 textures sur une architecture x*2, elle metra 2 cycles pour une passe ? ais-je fait une erreur ?


 
Là tu n'as pas fait d'erreur c'est entièrement exact.
 

Citation :

D'autre part, la fiche technique Matrox précise que le chip Parhelia est capable de traiter 64 echantillons de textures par cycle.
D'apres ce que j'en comprends, le parhelia est capable de traiter PAR CYCLE jusqu'a 4 textures sur chacun de ses 4 pixels pipelines. Donc 16 textures. Chacune de ces 16 textures est composée(En bilinéaire) a partir de 4 echantillons de texture. Ca fait donc jusqu'a 64 echantillons par cycle a sortir de la mémoire.
D'apres ce que j'en comprends aussi, en filtrage trilinéaire on passe a 8 echantillons par cycle par unité de texture. Donc dans cette configuration le Parhelia devient une architecture 4*2.  
En anisotropic, on passe a 16 echantillons par cycle. Chaque pixel pipeline n'est plus capable de traiter qu'une seule texture par Cycle.


 
Encore une fois c'est entièrement correct ce que tu dis là, le seul point que je corrigeais concernait l'incapacité théorique selon toi d'appliquer 16 textures par passe avec un R300, le R300 ne peut appliquer 16 textures par cycle mais il peut le faire en plusieurs passes. Quant à dire que la Parhelia peut gérer 16 textures je n'aime pas trop ça pour être plus exact il faut dire que :
la Parhelia peut écrire dans le frame buffer :

  • 4 pixels quad texturés en bilinear
  • 4 pixels dual texturés en trilinear
  • 4 pixels single texturés en aniso


Donc certes chacun des pipes peut appliquer 4 textures mais ça ne veut pas dire pour autant que le Parhelia gère 16 textures, car les 4 pixel pipes sont utilisés pour rastériser le même polygone. Bref ce chiffre de 16 textures pour la Parhelia me gêne d'autant plus que d'un point de vue des shaders je crois qu'elle ne dépasse pas la version 1.3 et reste donc limitée à 4 adressages de textures par pixel.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2207484
muzah
Bal Musette @ HFR depuis 1997
Posté le 10-02-2003 à 19:02:32  profilanswer
 

Ernestor a écrit :

Salut  :hello: Je pense meme que ca pourrait etre interessant de le rajouter dans la liste des topics uniques. Dans ce cas, ca pourrait etre pas mal que tu fasses un resume de la situation dans le premier post avec les tableaux de tes differents benchmarks et aussi les infos sur le gain de perf en OpenGL avec l'AGP Aperture Size. Comme ca, je te le met et R et si tu rajoutes en plus quelques liens vers d'autres tests ou infos sur cette carte, ca passe en R+ :)

Excellente idée, j'y pensais aussi ! ça ferait un bô topic unique ça madame !
 
 
 [:peewai] le R+, le R+, le R+ ! [:pigeooon]


---------------
un instant monsieur ça-va-chier
n°2207488
Ernestor
modo-coco :o
Posté le 10-02-2003 à 19:03:55  profilanswer
 

http://membres.lycos.fr/cybear/Forum/topicR+.gif
 
 :sol:  
 
 :D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2208057
sr16
@*#%$*%§!!
Posté le 10-02-2003 à 21:53:52  profilanswer
 

Ernestor a écrit :

Salut  :hello:  
 
Je ne viens pas pour cet intervenir dans cet interessant debat mais pour faire une suggestion a Sr16 :
 
J'ai vu que t'as mis le lien vers ce topic dans ta signature. Je pense meme que ca pourrait etre interessant de le rajouter dans la liste des topics uniques. Dans ce cas, ca pourrait etre pas mal que tu fasses un resume de la situation dans le premier post avec les tableaux de tes differents benchmarks et aussi les infos sur le gain de perf en OpenGL avec l'AGP Aperture Size. Comme ca, je te le met et R et si tu rajoutes en plus quelques liens vers d'autres tests ou infos sur cette carte, ca passe en R+ :)


 
Ok, je vais le faire.
 
Mais je metrait surement quelques jours a le pondre.  
 
Ca me parait très interessant de créer un point de discussion unique et de résumer les avantages et inconvénients du produits. Ses trucs et astuces.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2208064
Ernestor
modo-coco :o
Posté le 10-02-2003 à 21:57:11  profilanswer
 

Prend ton temps :)
 
y a deja un topic unique sur cette carte (voir le meta-topic) mais bon c'est un topic D qui est mort :D
 
Et dans le tien y a de bonnes infos avec des debateurs motive et intelligents, ca serait dommage de pas l'avoir dans le meta-topic et si possible en R ou R+ ;)


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2208155
sr16
@*#%$*%§!!
Posté le 10-02-2003 à 22:36:20  profilanswer
 

Zeross a écrit :


 
Donc certes chacun des pipes peut appliquer 4 textures mais ça ne veut pas dire pour autant que le Parhelia gère 16 textures, car les 4 pixel pipes sont utilisés pour rastériser le même polygone.


 
La, il faudrait faire des tests concrets pour le savoir. Mais cela présenterait-il une simplification fonctionelle de limiter l'accès des textures a des données communes ? C'est pas certain.
Il me semble que chaque système doit faire des demandes d'échantillons en fonction de ce qu'il lui faut. Ces demandes sont ensuite adressées au contrôleur mémoire qui va les chercher dans la RAM ou dans le cache le cas echéant.
Ce qui me fais dire cela c'est que d'un point de vue technique il me semble que a chaque cycle de rendu d'un triangle quad texturé il faut au moins 4 * 4 = 16 echantillons qui ne sont a  priori pas les mêmes. Par contre, chacun de ces 16 echantillons sont constitués de 4 echantillons (Dans le cas du Bilinéar Filter) dont au moins 2 echantillons sont communs avec le pixel précédent. D'ou un gain possible avec un cache.
Bon, Ok, je comprends ce que tu veut dire : Ca fait au maximum 4 Textures qui sont adressées en même temps même si ça fait bien 16 pixels différents.. Mais y aurait il un interet que ça soit différent ?
Il est par contre probable que les 4 pixels pipelines ne soient pas réellement indépendants mais sous la coupe d'un système de commande qui pilote le tout.
 

Citation :

Bref ce chiffre de 16 textures pour la Parhelia me gêne d'autant plus que d'un point de vue des shaders je crois qu'elle ne dépasse pas la version 1.3 et reste donc limitée à 4 adressages de textures par pixel.


 
1.3 pour les Pixels shaders.
2.0 pour les vertex shaders.
 
Donc une carte partiellement DirectX9. Je dirais donc plus réellement "Pleinement optimisée" DirectX 8.
 
Il semble que les shaders de la Parhelia sont un peu mystérieux dans leur architecture. Mais il semble que tu ait raison pour les 4 adressages de texture par pixel.
 
Voila quelques infos, est ce que cela te dit quelque chose ?
 
http://www.beyond3d.com/reviews/ma [...] ex.php?p=2


---------------
TOPIC PERMANENT Matrox Parhelia
n°2208163
muzah
Bal Musette @ HFR depuis 1997
Posté le 10-02-2003 à 22:38:49  profilanswer
 

Ernestor a écrit :

Prend ton temps :)
 
y a deja un topic unique sur cette carte (voir le meta-topic) mais bon c'est un topic D qui est mort :D
 
Et dans le tien y a de bonnes infos avec des debateurs motive et intelligents, ca serait dommage de pas l'avoir dans le meta-topic et si possible en R ou R+ ;)

Super rare ici !
 
 
 
 
 
 
 
:D


---------------
un instant monsieur ça-va-chier
n°2208241
sr16
@*#%$*%§!!
Posté le 10-02-2003 à 23:10:44  profilanswer
 

Tiens, j'ai trouvé le schéma fonctionnel sur le site Matrox
 
http://www.matrox.com/mga/media/artwork/parhelia/technology/chip_diagr.jpg
 


---------------
TOPIC PERMANENT Matrox Parhelia
n°2209347
kaizel
vive aubade ;)
Posté le 11-02-2003 à 14:12:54  profilanswer
 

sepiroth a écrit :

la 9700 a quand meme 8 pixels pipeline et fais 16 textures par passes  :ange:  
et puis son moteur de calcul géometrique et de pixels et vertex shader est autrement puissant :ange:  


puis faut quand meme comparer se qui est comparable la parhelia na pas le meme age/generation que la radeon 9700

n°2210012
Zeross
Posté le 11-02-2003 à 18:31:07  profilanswer
 

Sr16 a écrit :


 
La, il faudrait faire des tests concrets pour le savoir. Mais cela présenterait-il une simplification fonctionelle de limiter l'accès des textures a des données communes ? C'est pas certain.
Il me semble que chaque système doit faire des demandes d'échantillons en fonction de ce qu'il lui faut. Ces demandes sont ensuite adressées au contrôleur mémoire qui va les chercher dans la RAM ou dans le cache le cas echéant.
Ce qui me fais dire cela c'est que d'un point de vue technique il me semble que a chaque cycle de rendu d'un triangle quad texturé il faut au moins 4 * 4 = 16 echantillons qui ne sont a  priori pas les mêmes. Par contre, chacun de ces 16 echantillons sont constitués de 4 echantillons (Dans le cas du Bilinéar Filter) dont au moins 2 echantillons sont communs avec le pixel précédent. D'ou un gain possible avec un cache.
Bon, Ok, je comprends ce que tu veut dire : Ca fait au maximum 4 Textures qui sont adressées en même temps même si ça fait bien 16 pixels différents.. Mais y aurait il un interet que ça soit différent ?
Il est par contre probable que les 4 pixels pipelines ne soient pas réellement indépendants mais sous la coupe d'un système de commande qui pilote le tout.


 
Non je ne voyais pas ça comme une limitation, ça marche comme ça sur tous les chips 3D :)
Je relevais juste l'utilisation du terme 16 textures comme un abus de langage, une vision un peu trop simpliste qui pouvait entraîner de mauvaises interprétations et c'est légion dans le domaine de la 3D où les termes sont souvent confondus et où on peut lire parfois des énormité. C'est uniquement pour ça que je le notais, afin que tout le monde ait les idées claires à ce sujet je pense qu'en ce qui te concerne c'est la cas mais c'est juste pour éviter d'embrouiller les lecteurs de ce topic qui n'ont peut être pas tous le même niveau en 3D.
 
C'est pour ça que parler de 16 textures me dérangeait, je préfère parler de 64 échantillons de textures lus par cycle pour la Parhelia, les autres architectures n'en lisant que 32 même si c'est moins parlant peut être c'est beaucoup plus correct d'un point de vue technique. A partir de là on peut beaucoup mieux s'y retrouver.
 

Citation :

1.3 pour les Pixels shaders.
2.0 pour les vertex shaders.
 
Donc une carte partiellement DirectX9. Je dirais donc plus réellement "Pleinement optimisée" DirectX 8.


 
Là je ne suis pas entièrement d'accord le choix de Pixels Shaders 1.3 est discutable d'un point de vue technologique et l'empêche d'être "pleinement optimisée" Direct X 8.0 même si d'un point de vue "commercial" ce choix est parfaitement logique. Le fonctionnement des Shaders de la Parhelia reste assez mystèrieux pour moi (et je ne dois pas être le seul car aucun document technique n'explique en détail leur fonctionnement à ma conaissance) donc je ne jugerais pas en détail, je pense vu qu'ils sont basés sur les 1.3 qu'ils doivent utiliser les extensions de Nvidia (comme le P10 de 3DLabs) si quelqu'un a de plus amples informations à ce sujet ça m'intéresse car je n'ai vu aucune extension spécifique à Matrox. Ils semblent toutefois que les PS de la Parhelia soient plus flexibles que ceux des NV2x en permettant de combiner deux pipes pour exécuter jusqu'à dix instructions arithmétiques (mais toujours 4 adressages de textures qui plus est réalisés en début de shader :() mais je ne sais pas dans quelle mesure c'est exploitable. Mais au final il faut reconnaître que du point de vue des pixels shaders le R200 reste la carte Direct X 8.0 la plus aboutie et de loin et je dis ça d'autant plus sereinement étant donné que je possède une GF4 TI ;)


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2210167
sr16
@*#%$*%§!!
Posté le 11-02-2003 à 19:01:11  profilanswer
 

kaizel a écrit :


puis faut quand meme comparer se qui est comparable la parhelia na pas le meme age/generation que la radeon 9700


 
Certes la radeon 9700 est sortie pas tellement longtemps après le Parhelia si mes souvenirs sont bons. Mais c'est vrai que dans ce domaine le temps compte pour beaucoup.
 
Mais comme on l'a vu plus haut, je pense que le temps de gestation des produits Matrox dépasse celle des autres de quelques mois compte tenu du fait que c'est en general plus au point. Ils font nécéssairement pas mal de test.
Lors de la sortie de la Parhelia, quelques articles ont mentionnés qu'elle etait etonnament stable.
Pour ma part, je dirais qu'a l'heure d'aujourd'huis, c'est nickel de chez nickel.
 
Je pense que si elle etait sortie en même temps que la Radeon 8500 tout le monde aurait dit que c'était une super carte.
Et pourtant, elle n'a que 6 mois de retard la dessus. C'est rien 6 mois dans un projet de conception pareil.
 
 
 
 
 
 


---------------
TOPIC PERMANENT Matrox Parhelia
n°2210201
sr16
@*#%$*%§!!
Posté le 11-02-2003 à 19:05:54  profilanswer
 

Zeross a écrit :


 
Non je ne voyais pas ça comme une limitation, ça marche comme ça sur tous les chips 3D :)
Je relevais juste l'utilisation du terme 16 textures comme un abus de langage, une vision un peu trop simpliste qui pouvait entraîner de mauvaises interprétations et c'est légion dans le domaine de la 3D où les termes sont souvent confondus et où on peut lire parfois des énormité. C'est uniquement pour ça que je le notais, afin que tout le monde ait les idées claires à ce sujet je pense qu'en ce qui te concerne c'est la cas mais c'est juste pour éviter d'embrouiller les lecteurs de ce topic qui n'ont peut être pas tous le même niveau en 3D.
 
C'est pour ça que parler de 16 textures me dérangeait, je préfère parler de 64 échantillons de textures lus par cycle pour la Parhelia, les autres architectures n'en lisant que 32 même si c'est moins parlant peut être c'est beaucoup plus correct d'un point de vue technique. A partir de là on peut beaucoup mieux s'y retrouver.
 

Citation :

1.3 pour les Pixels shaders.
2.0 pour les vertex shaders.
 
Donc une carte partiellement DirectX9. Je dirais donc plus réellement "Pleinement optimisée" DirectX 8.


 
Là je ne suis pas entièrement d'accord le choix de Pixels Shaders 1.3 est discutable d'un point de vue technologique et l'empêche d'être "pleinement optimisée" Direct X 8.0 même si d'un point de vue "commercial" ce choix est parfaitement logique. Le fonctionnement des Shaders de la Parhelia reste assez mystèrieux pour moi (et je ne dois pas être le seul car aucun document technique n'explique en détail leur fonctionnement à ma conaissance) donc je ne jugerais pas en détail, je pense vu qu'ils sont basés sur les 1.3 qu'ils doivent utiliser les extensions de Nvidia (comme le P10 de 3DLabs) si quelqu'un a de plus amples informations à ce sujet ça m'intéresse car je n'ai vu aucune extension spécifique à Matrox. Ils semblent toutefois que les PS de la Parhelia soient plus flexibles que ceux des NV2x en permettant de combiner deux pipes pour exécuter jusqu'à dix instructions arithmétiques (mais toujours 4 adressages de textures qui plus est réalisés en début de shader :() mais je ne sais pas dans quelle mesure c'est exploitable. Mais au final il faut reconnaître que du point de vue des pixels shaders le R200 reste la carte Direct X 8.0 la plus aboutie et de loin et je dis ça d'autant plus sereinement étant donné que je possède une GF4 TI ;)
 


 
Ok,
 
Tu m'a l'air d'y connaitre pas mal dans le domaine. Tu programme ?
 
Ce que je me demande, c'est que vu le fait que tout le monde fait un hardware différent question shaders, comment les jeux pouront ils exploiter ces effets ?
 
Ceux ci ne risquent ils pas de se limiter au plus petit dénominateur commun ?
 
Et vu le nombre de Geforce 4mx qui se sont vendues et qui je crois ne sont même pas des cartes DirectX 8.
 
Quand au support du 1.3 pour les pixel shaders, ça ne corresponds pas a ce que supporte le GF4 TI 4600 ?
 
Pourait tu nous dire quelle carte supporte quoi ? Et dans la pratique ça correspond a quoi commme différence ?


Message édité par sr16 le 11-02-2003 à 19:14:48

---------------
TOPIC PERMANENT Matrox Parhelia
n°2210638
sr16
@*#%$*%§!!
Posté le 11-02-2003 à 20:29:39  profilanswer
 

Une autre fonctionnalité interesante de la Parhelia.
 
Je dirais que j'était un peu passé a côté. Ca fait un moment qu'on ne s'attends plus trop a des nouveautés en matière de 2D.
 
Cette amélioration, c'est la prise en compte en accélèration hardware de l'anti aliasing sur le texte sous windows. Comme on peut le voir sur le schéma fonctionnel du circuit présenté plus haut, c'est intégré dans le chip.
 
http://perso.club-internet.fr/omerle/blabla/CG/GlyphTest.png
 
Bien sûr, windows XP offre déja cette fonctionnalité. Mais en mode "software" seulement ce qui implique un ralentissement de l'affichage.
De plus, la gestion hardware permet de règler le gamma du texte. En pratique ça donne un texte plus ou moins gras.
 
Cette fonction activée : C'est super beau. Comme on peut le voir, le texte ne devient pas flou car seuls les caractères a partir d'une certaine taille sont lissés.
Pour la mise en page, c'est une fonctionnalité vraiment interessante.


Message édité par sr16 le 11-02-2003 à 20:29:53

---------------
TOPIC PERMANENT Matrox Parhelia
n°2210680
Fendnts
My fading voice sings of love
Posté le 11-02-2003 à 20:36:19  profilanswer
 

tu peux voir ce que donne la parhelia sous 3dmark2003 ? (ya des benchs en quad texturing :D)


---------------
(un posteur anonyme m'a renseigné là dessus tout à l'heure)
n°2210885
sr16
@*#%$*%§!!
Posté le 11-02-2003 à 21:20:36  profilanswer
 

fendnts a écrit :

tu peux voir ce que donne la parhelia sous 3dmark2003 ? (ya des benchs en quad texturing :D)


 
Des que j'arrive a télécharger le bench en question. Le site de Futurmark a semble t-il explosé sous la charge  :cry: .


---------------
TOPIC PERMANENT Matrox Parhelia
n°2210897
Ernestor
modo-coco :o
Posté le 11-02-2003 à 21:24:15  profilanswer
 

Si t'es pas presse, je te conseille d'attendre un jour ou deux pour telecharger tranquillement ;)
C'est ce que je vais faire d'ailleurs :)
 
Pour la liste des miroirs : http://forum.hardware.fr/forum2.php3?post=551748&cat=1
 
Cela dit, ca sera interessant de voir comment se comportera ces tests qui sont bien lourds.


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2210953
sr16
@*#%$*%§!!
Posté le 11-02-2003 à 21:35:50  profilanswer
 

Ernestor a écrit :

Si t'es pas presse, je te conseille d'attendre un jour ou deux pour telecharger tranquillement ;)
C'est ce que je vais faire d'ailleurs :)
 
Pour la liste des miroirs : http://forum.hardware.fr/forum2.php3?post=551748&cat=1
 
Cela dit, ca sera interessant de voir comment se comportera ces tests qui sont bien lourds.


 
Merci C Cool.
 
Vais essayer de l'avoir plus vite si c'est possible.


---------------
TOPIC PERMANENT Matrox Parhelia
n°2211121
Zeross
Posté le 11-02-2003 à 22:12:38  profilanswer
 

Sr16 a écrit :


 
Ok,
 
Tu m'a l'air d'y connaitre pas mal dans le domaine. Tu programme ?


 
Oui, enfin disons que je bricole un peu en OpenGL ;)
 

Citation :

Ce que je me demande, c'est que vu le fait que tout le monde fait un hardware différent question shaders, comment les jeux pouront ils exploiter ces effets ?
 
Ceux ci ne risquent ils pas de se limiter au plus petit dénominateur commun ?


 
C'est effectivement le risque et c'est même au final ce qu'on a pu observer dans les (rares) jeux utilisant les shaders : ils se limitent à l'utilisation des shaders 1.1 apparus avec la GF3. Le seul espoir qu'il reste c'est l'apparition des HLSL (High Level Shading Language) à partir desquels on devrait pouvoir faire abstraction du hardware sous jacent en utilisant des compilateurs. Mais pour l'instant ça reste asse confidentiel comme utilisation : Nvidia a le Cg mais aucun autre fabriquant n'a développé de "profils" adaptés à son hardware car ils ne veulent pas que Nvidia est la mainmise dans ce domaine (et on les comprend), Dx9.0 est censé avoir un HLSL également intégré espèrons que ça améliore les choses mais je ne me suis pas penché sur la question étant traditionnellement plus OpenGL que DirectX. On peut aussi citer GL2 dans ce secteur mais il semble que Nvidia traîne des pieds pour fournir des drivers performants (cf dernier .plan de Carmack), préférant imposer son Cg plutôt que d'aider GL2 à décoller.
 

Citation :

Et vu le nombre de Geforce 4mx qui se sont vendues et qui je crois ne sont même pas des cartes DirectX 8.


 
Oui c'est malheureux cette politique de Nvidia, d'un côté ils font tout pour encourager les développeurs à utiliser leurs dernières technologies en les documentant énormément et en fournissant il faut le reconnaître des drivers de bon niveau mais de l'autre ils restreignent la portée de ces technologies en imposant sur le secteur entrée de gamme des cartes ne les supportant pas :(
 

Citation :

Quand au support du 1.3 pour les pixel shaders, ça ne corresponds pas a ce que supporte le GF4 TI 4600 ?


 
Oui c'est exactement ça
 

Citation :

Pourait tu nous dire quelle carte supporte quoi ? Et dans la pratique ça correspond a quoi commme différence ?


 
GF3 / GF3 Ti : Pixel Shaders 1.1
GF4 Ti / Parhelia / P10 (Wildcat VP) / Xabre : Pixel Shaders 1.3
Radeon 8500 / 9000 / 9100 : Pixel Shaders 1.4
Radeon 9500 /9500 Pro / 9700 / 9700 Pro : Pixel Shaders 2.0
GF FX : Pixel Shaders 2.0+
 
J'ai fait de mémoire et je n'ai pas vérifié mais je pense que c'est correct (même si c'est difficile de suivre vu que les chips sont fréquemment rebaptisés dans la plus grande confusion).  
 
Expliquer dans la pratique à quoi correspondent les différences est plus délicat d'autant que je ne me suis intéressé qu'aux shaders 1.1 (ou 1.3 qui sont fondamentalement très proches) et encore assez récemment d'un point de vue programmation vu que l'extension GL_ARB_fragment_program n'a été approuvée que récemment. Bref je débutte juste et si j'ai une bonne idée de la théorie il me reste encore pas mal de chemin à parcourir en pratique ;)
 
Disons que les différences portent principalement sur la structure du shader et sur le jeu d'instructions. Les pixels shaders 1.1 ou 1.3 sont constitués de 4 adressages de textures (qui peuvent être dépendants) en début de programme et peuvent ensuite compter jusqu'à 8 opérations arithmétiques. Les pixels shaders 1.4 pour leur part sont constitués de deux phases durant chaque phase il peut y avoir jusqu'à six adressages de textures et 8 opérations arithmétiques (attention il n'y a que six textures différentes mais elles peuvent être adressées deux fois dans un shader). J'espère ne pas m'être trompé je connais vraiment peu les PS1.4. Pour les PS2.0 et + je ne peux pas en parler vu que je ne les ai pas étudié mais de toute façon vu leur complexité il est quasiment impératif d'utiliser un HLSL (on ne parle plus de dizaines mais de centaines voire de milliers d'instructions).
 
Dans la pratique vu que c'était ta question initiale on peut dire que les PS1.4 sont plus souples (l'adressage de texture a lieu a deux endroits dans le shader) et permettent de faire plus de travail par passe par exemple Doom3 est rendu en une seule passe avec les PS1.4 alors qu'il en faut 2 ou 3 avec des PS1.3.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  ..  20  21  22  23  24  25

Aller à :
 

Sujets relatifs
parhelia d'occazeSon et Raid integrés, perfs decrus ?
dual head matrox ou nforce2Matrox G400Max et AGP 1,5v
Que dois je faire pour ameliorer mes perfs sous 3 d mark 2001 ?Quel perfs je peux faire avec cette config?
Matrox G200 XPSP1 Accélération matérielle Overlayhd partionné perfs moins bonnes ???
matrox g550: Affichage sur bi-ecran degueulasse ....:(Gros problemes de perfs sur portable
Plus de sujets relatifs à : Les perfs de la Matrox Parhelia


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR