Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1243 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4
Page Suivante
Auteur Sujet :

ça vaut quoi une geforce 2 ultra aujourd'hui?

n°2402890
mareek
Et de 3 \o/
Posté le 28-04-2003 à 22:51:11  profilanswer
 

Reprise du message précédent :
nb: le langage de haut niveau devrait être le GLSlang (quand les specs d'OpenGL2 seront terminées et validées par l'arb).
 
Volià, c'était juste pour faire le nerdz qui se la péte  :sol:


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
mood
Publicité
Posté le 28-04-2003 à 22:51:11  profilanswer
 

n°2402917
bjone
Insert booze to continue
Posté le 28-04-2003 à 22:57:34  profilanswer
 

héhé :D
 
enfin pour préciser le petit reproche que je fais à l'opengl:
 
les extensions propriétaires sont payantes.
 
donc quand tu as un fabricant X qui expose des extensions interressantes, les autres fabricants doivent payer pour exposer l'extension dans leurs drivers même si la fonction est présente au niveau hardware.
 
Au bout d'un moment le fabricant X offre son extension au groupe ARB.
 
alors qu'en DirectX, une fois que c'est dans les specs DirectX, tous les membres y ont accès.
 
Par exemple, à l'époque du Dx6 ou 7 (sais pu  [:sisicaivrai]), quand S3 a fait le S3TC, que Grosoft a (acheté) inclus l'extension dans le DirectX, tout le monde l'a utilisé.
 
La Geforce 1 offrait le S3TC en DirectX, et pas en OpenGL.
 
Pour avoir le droit d'exposer l'extension S3TC en OpenGL, nVidia a dû lacher des propriétées intellectuelles sur le T&L à S3.


Message édité par bjone le 28-04-2003 à 22:58:14
n°2402935
bjone
Insert booze to continue
Posté le 28-04-2003 à 23:02:35  profilanswer
 

C'est un peu comme le Jedec pour les mémoires:
 
Tous les membres doivent annonçer les recherches en cours et laisser les autres utiliser ce qui en aboutira. Ca se base sur un échange mutuel.  
 
Chose que je trouve se passe mieux en DirectX qu'en OpenGl.

n°2402938
bjone
Insert booze to continue
Posté le 28-04-2003 à 23:03:11  profilanswer
 

enfin j'ai ptet dit des conneries hein  :jap:

n°2402956
Zeross
Posté le 28-04-2003 à 23:08:56  profilanswer
 

BJOne a écrit :

enfin j'ai ptet dit des conneries hein  :jap:  


 
Non pas à ma connaissance y a juste ça  
 

Citation :

OpenGL est portable à travers diverses plateformes, mais pour maximiser les performances, il faut utiliser les extensions propriétaires et donc faire un chemin de code différent par couple fabricant/modèle du fabricant.


 
Qui n'est que partiellement vrai : les extensions utiles sont quand mêmes ajoutées à l'ARB donc ça n'est vrai que dans un premier temps si tu es pressé c'est sûr tu dois te ruer sur les extensions propriètaires. Carmack est en train de supprimmer pas mal des extensions propriétaires du code de Doom III en les remplaçant par les extensions ARB.


Message édité par Zeross le 28-04-2003 à 23:09:41

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2402989
bjone
Insert booze to continue
Posté le 28-04-2003 à 23:15:19  profilanswer
 

Zeross a écrit :


 
Non pas à ma connaissance y a juste ça  
 

Citation :

OpenGL est portable à travers diverses plateformes, mais pour maximiser les performances, il faut utiliser les extensions propriétaires et donc faire un chemin de code différent par couple fabricant/modèle du fabricant.


 
Qui n'est que partiellement vrai : les extensions utiles sont quand mêmes ajoutées à l'ARB donc ça n'est vrai que dans un premier temps si tu es pressé c'est sûr tu dois te ruer sur les extensions propriètaires. Carmack est en train de supprimmer pas mal des extensions propriétaires du code de Doom III en les remplaçant par les extensions ARB.


 
le problème c'est que les extensions propriétaires sont OFFERTES au groupe ARB (donc à tout le monde gratuitement) uniquement au bon vouloir du fabricant.
 
Donc si une extension est atout marketting ou technique majeur, le fabricant se le gardera bien au chaud un maximum de temps...
 
D'ailleurs question interressante: le Truform (tessellation en N-patches) est exposé par une extension propriétaire en OpenGl.
 
Hors en DirectX, le matrox Parhelia offre aussi le truform il me semble. Est-ce que le Truform a été offert au groupe ARB, et que du coup le Parhelia offre aussi le Truform en OpenGL ?
 
Puisque par exemple dans Half-Life, tu peux activer le Truform sur les ati, mais comme c'est une extension ati, c'est DTC pour le parhelia...
 
http://www.pcrave.com/reviews/293.htm
 

Citation :


The Parhelia 512 supports the various forms of Higher Order Surfaces available in DirectX 9.0, including NURBS, Catmull Rom Splines, RT patches, B Splines and N-Patches. Unfortunately, the Parhelia is unlikely to support Truform under OpenGL without a license from ATI. It's the same situation as NVIDIA had with S3TC in OpenGL. DirectX games that support Truform should in fact work on the Parhelia, however, as ATI licensed it to Microsoft.

n°2402998
bjone
Insert booze to continue
Posté le 28-04-2003 à 23:17:20  profilanswer
 

Par contre apparement Carmack semble très chaud pour l'OpenGL 2.0...

n°2403024
Zeross
Posté le 28-04-2003 à 23:23:48  profilanswer
 

Honnêtement pour le TruForm je n'en sais rien d'ailleurs il me semble que même ATI ne le supporte plus dans les R300 ou qu'il y ait quelques problèmes aec les drivers à moins que j'ai mal lu...
 
Les extensions vraiment capitales finissent toujours pas être intégrées à l'ARB comme par exemple si je prends les trois dernières en date :  
GL_ARB_vertex_program  
GL_ARB_fragment_program  
GL_ARB_vertex_buffer_object  
 
Etaient plus une priorité à mes yeux que le support des HOS et malgré les problèmes d'IP avec MS et Nvidia ont fiini par être intégrées, maintenant c'est sûr qu'il ne faut pas être pressé ;)


Message édité par Zeross le 28-04-2003 à 23:24:43

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2403047
bjone
Insert booze to continue
Posté le 28-04-2003 à 23:35:18  profilanswer
 

bah, disons qu'actuellement l'opengl souffre de l'impérialisme de ses acteurs..
 
par contre l'opengl 2.0 semble une bonne initiative:  
 
http://www.3dlabs.com/opengl/ogl2.pdf

n°2403048
mareek
Et de 3 \o/
Posté le 28-04-2003 à 23:36:30  profilanswer
 

Zeross a écrit :

Honnêtement pour le TruForm je n'en sais rien d'ailleurs il me semble que même ATI ne le supporte plus dans les R300 ou qu'il y ait quelques problèmes aec les drivers à moins que j'ai mal lu...

Il me semble que, d'après les rumeurs, le truform est géré en software sur les R9700 :/


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
mood
Publicité
Posté le 28-04-2003 à 23:36:30  profilanswer
 

n°2409822
COOL_TTH
Posté le 01-05-2003 à 17:46:21  profilanswer
 

http://www.hardware.fr/images/articles/geforce2ultralogo.gif  
 
http://www.hardware.fr/images/articles/geforce2ultra_quakeiiiarena_piii933.gif


Message édité par COOL_TTH le 01-05-2003 à 17:57:28
n°2409873
werebear
Posté le 01-05-2003 à 18:12:33  profilanswer
 

bitonio6 a écrit :

au niveau perf... (c'est une hercules)
et au niveau prix...
 
car là on m'en fait une 90Euro?!


 
pour te donner une idée de prix, j'ai vendu il y a un peu moins d'un an une hercules geforce 2 GTS pro 50 ?, j'aurais pu en tirer 75 ? max en negociant mais bon ce ne valait pas plus il y a 9 mois...


---------------
un bon troll est un troll mort
n°2417286
kyo54
Posté le 04-05-2003 à 22:46:07  profilanswer
 

mareek a écrit :

Etant assez d'accord avec Ernestor sur ses remarques, je vais donc juste réagir sur une partie de ton post:
 
 
Prenons les jeux cas par cas:
 
-Ultima 9: Je ne connais pas Ultima 9.
 
-GTA 3: portage d'un jeu console programmé avec les pieds. ça aurait été la même chose en OpenGL.
 
-Dungeon Siege: Je ne connais pas non plus ce jeu, mais au vu des différence de perfs entre les différentes cartes graphiques (cf cet article) je pense qu'il beaucoup plus dépendants deu CPU que de la CG. Encore une fois ça aurait été la même chose en OpenGL
 
-Midtown Madness 2 et Mafia : Ces jeux sont également très dépendants du CPU. Gérer un moteur physique pour des centaines de bagnoles, la circulation d'une grande ville et les déplacement de ses habitants ainsi que l'IA des nombreux flics qu'on peut rencontrer demande énormément de ressources CPU. DirectX n'est pas en cause dans là non plus, le même jeux programmé en OpenGl n'aurait pas été plus rapide. (nb: En plus je trouve que Mafia est un des jeux les plus réussit graphiquement à l'heure actuelle).
 
 
 
-Sur quoi tu te bases pour affirmer ça ?  :??:  
D'après les discussions que j'ai eu avec des gars qui programmaient en D3D et/ou en OpenGL, les perfs étaient assez similaires, Le choix entre les 2 Apis étant plus une question d'habitude ou de curiosité qu'autre chose.
 
-Les éditeurs de jeux se foutent un peu de la portabilité. La plateforme de jeux sur Ordinateur est Windows et c'est tout. Linux ne représente qu'un marché minuscule comparé au marché windows et les "linuxiens" étant habitués aux logiciels libres (et donc gratuits), ils ne sont pas forcement près à payer pour un jeu sur leur OS favori.


- sur différents jeux proposant les 2 API
 
- bah moi je m'en fou pas. Et puis y'a pas que Windows et Linux dans la vie


---------------
.
n°2417289
kyo54
Posté le 04-05-2003 à 22:46:31  profilanswer
 

ixemul a écrit :


 
mmmhhh... je pense que tu fais fausse route...
 
Les moteurs OpenGL sont beaucoup moins nombreux que les moteurs DX, donc parmis la plethore de moteur DX actuellement sur le marché, il parait effectivement qu'il y en ai un grands nombre mediocre (dans le vrai sens du terme ;) ). En effet, ceux bossant sous OpenGL sont souvent meilleur car l'API est tres souple et tres puissante. Cependant, il existe egalement de tres bonne choses en pure DX (heureusement... ). Aussi, d'un point de vue totalement perso, je trouve DX beaucoup plus tiré par les cheveux qu'OGL question programmation (un code OGL est beaucoup plus clair qu'un code DX...).


oki!


---------------
.
n°2417297
kyo54
Posté le 04-05-2003 à 22:48:02  profilanswer
 

Zeross a écrit :

C'est pas tout jeune mais ça peut en intéresser certains :

Citation :

The present and the future
 
by John Carmack
 
I'm still developing everything with OpenGL, and I'm still targeting mac and linux as well as windows, but I want to rationally address some points in the API debate:  
 
D3D is clunky, etc  
 
Not really true anymore. MS made large strides with each release, and DX8 can't be called a lousy API anymore. One can argue various points, but they are minor points. Anti-Microsoft forces have a bad habit of focusing on early problems, and not tracking the improvements that have been made in current versions. My rant of five years ago doesn't apply to the world of today.  
 
I do think that the world would be a slightly better place if Microsoft had pulled an embrace-and-extend on OpenGL instead of developing a brand new API that had to be rewritten a half dozen times, but its water under the bridge now.  
 
Open for more sales, etc  
 
It has been pretty clearly demonstrated that the mac market is barely viable and the linux market is not viable for game developers to pursue. Linux ports will be done out of good will, not profit motives. From an economic standpoint, a developer is not making a bad call if they ignore the existence of all platforms but windows.  
 
DX8 Gives more features  
 
Some people have an odd view that an API gives you features. Assuming you don't care about software emulation, hardware gives you features, and an API exposes them. If you try to use vertex programs or bump env map on a TNT, DX8 doesn't magically make it work. DX8's hardware independence is also looking a bit silly now as they make point releases to support ATI's new hardware. They might as well say D3D-GF3 or D3D-R200 instead of DX8 and DX8.1.  
 
All of Nvidia's new features have showed up as OpenGL extensions before they show up as new D3D features.  
 
Divergent extensions haven't been a problem up until very recently. All of the vendors tended to support all the extensions they could, and if they had unique functionality, like register combiners, they made their own extension. The current status of vertex programs does piss me off, though. I really wish ATI would have just adopted Nvidia's extension, even if it meant not exposing every last bit of their hardware.  
 
Abstraction in a high performance environment can be dangerous. If you insist that all hardware behave the same, you prevent vendors from making significant improvements. If the spec for behavior comes from people that aren't hardware oriented, it can be a huge burden. D3D still suffers somewhat due to this, with some semantics and odd features that make hardware guys wince.  
 
The Good News  
 
We are rapidly approaching a real golden age for graphics programming. Currently, cards and API's are a complex mess of hundreds of states and function calls, but the next two years will see the addition of the final primitive functionality needed to allow arbitrarily complex operations with graceful performance degradation.  
 
At that point, a higher level graphics API will finally make good sense. There is debate over exactly what it is going to look like, but the model will be like C. Just like any CPU can compile any C program (with various levels of efficiency), any graphics card past this point will be able to run any shader. Some hardware vendors are a bit concerned about this, because bullet point features that you have that the other guy doesn't are a major marketing feature, but the direction is a technical inevitability. They will just have to compete on price and performance. Oh, darn.  
 
It's a Turing machine point. Even if OpenGL 2.0 and DX10 don't adopt the same shader description language, they will be functionally equivalent, and could be automatically translated.  
 
There is lots of other goop like texture specification and context management that will still be different between API, but the core day-to-day work of a graphics programmer will be basically above the disputes.  
 
John Carmack




il a donc révisé son point de vue


---------------
.
n°2417326
kyo54
Posté le 04-05-2003 à 23:00:31  profilanswer
 

BJOne a écrit :

bon fodrait arrêter de dire des bêtises.
 
DirectX était une daube jusq'au 6 facile effectivement
pour traçer un triangle fallait je sais pas commbien d'appels de fonctions.
 
à partir du 7, DirectX offre un rendement kif-kif avec l'OpenGL. (en quelques appels d'API on peut traçer un modèle de plusieurs millions de triangles).
 
Il faut comparer ce qui est comparable:
 
Comparer un Quake-like & Mafia ou GTA3 est -complètement- débile.
 
L'architecture du moteur n'est pas du -tout- la même, et les contraintes aussi.
Fous 2000 entitées dans Quake 3 pour voir les FPS tiens, t'auras pas 400 fps avec un P4 o/c à 4Ghz en 320x200.
 
Ensuite comme il a été dit le rendement D3D/OGL est kif-kif bourriqueau (donkey :D)...
 
Un moteur c'est avant-tout un moteur physique/IA, et justement c'est un moteur 3D: l'API ne fait pas tout l'organisation du monde, les contraintes, et les algorithmiques y sont pour beaucoup.  
 
Un bon moteur 3D c'est de ne traçer que ce qui est visible et de faire le tri de ce qui est bon et pas bon, de manière précise et rapide.
 
Quand aux problèmes de portabilité c'est simple:
 
OpenGL est portable à travers diverses plateformes, mais pour maximiser les performances, il faut utiliser les extensions propriétaires et donc faire un chemin de code différent par couple fabricant/modèle du fabricant.
 
DirectX est Windows-only, mais ne "reconnait" pas d'extensions propriétaires. Si un fabricant veux que les programmeurs utilisent des fonctions maisons, ils sont obligés de l'offrir au DirectX et de laisser tout membre du DirectX l'utiliser.
 
Ceci dit:
 
D'un point de vues performances, OpenGL est effectivement supérieur: pourquoi ? parceque les fabriquants peuvent transformer l'API en API propriétaire par les extensions.
On a plus alors d'OpenGL, mais du AtiGL ou du NvGL.
 
Maintenant soit on a beaucoup de temps et on fait de l'OGL avec extensions propriétaires, soit on fait juste une démo technologique, soit on un fait jeu dédié à un fabricant.
 
Personnellement je ne considère pas DoomIII comme une démo techno (en artistique y'aura des heures de boulot), carmack est effectivment un gars à part.
Et Ut2003 n'est pas si optimisé nVidia que ça, car il n'y a aucunes fonctions nVidia en D3D, puisque des fonctions fabricants ça n'existe pas en D3D, le jeu est optimisé tout court car il y a des bonnes pratiques en programmation D3D.
 
Quand au DirectX 9 il est justement là pour réduire encore, voir annhiler, encore les optimisations propres à un modèle de carte 3D.  
 
En Dx8, les shaders étant codés en assembleur, on se retrouver avec plusieurs version de code pour les diverses cartes 3D, un peut comme on pouvait produire du code optimisé 486/pentium/cyrix/ppro/k6... pour le même jeu d'instructions x86.
 
Le Dx9 impose un modèle de shader écrit en langage de haut-niveau comme du C, code qui sera compilé par le driver.
 
Bien sûr nVidia propose le Cg, qui n'a été adopté ni pour le DirectX, ni pour l'OpenGl (donc exit la faisabilité de jeux/applis en Cg).
 
En face du HLSL du Dx9, 3DLabs a standardisé son langage de shader pour l'OpenGL 2 et c'est bien.
 
Car du coup Dx9+HLSL et Ogl 2.0 sont dans la même philosophie.
 
Et on en reviens au début: DirectX/Opengl c'est kif-kif, seulement y'aura toujours des problèmes avec les extensions...
 
 
 
 
 
 


bon d'accord, je révise mon point de vue


---------------
.
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
tnt2 pci ultra 32Mo ddr[nEEd HelP] pb de boot sur MSI Kt4 ultra
Asus Geforce 4 Ti 4800Se V9480?je pensais pas que ma geforce 4 ti 4600 était si puissante...
Ca vaut le coup de changer une k7s5a pour l'avenir ?geforce 256 w2k erreur de chargement
Contrôleur Ultra DMA 66 High PointQue vaut l'IBM 120Go 8Mo 180GXP?
une CM e7205 ça vaut encore le coup?votre avis geforce
Plus de sujets relatifs à : ça vaut quoi une geforce 2 ultra aujourd'hui?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR