Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1160 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  21  22  23  ..  32  33  34  35  36  37
Auteur Sujet :

[Topic Officiel] Half-life 2 et les cg: infos, conseils, ..

n°2729323
papours
Posté le 16-09-2003 à 23:16:52  profilanswer
 

Reprise du message précédent :

MagiSim a écrit :

Je pense pas que nVIDIA coulera, ils ont plein de thunes à verser dans le marketting.... :) Faut pas oublier que 3dfx s'était coupé des OEM aussi...
 
Et comme d'hab... Les troll anti-3dfx post Voodoo2 oublient une chose importante. Le FSAA, cette chère fonction qui est argument de vente de nos CG actuelles...... :D


 
j étais sur k on allait me sortir le fsaa, comme quoi une feature efficace mais qui parle peu à l utilisateur lambda (c est qd mme lui qui achete) ca fait pas le poids contre des supers trucs aux noms qui petent bien comme "Transform & Lightning" - si j osais je dirais bien que ca vient du riva128 mais ca va pas passer.
 
sinon j ai aucun pb pour reconnaitre ke 3dfx a fait de bonnes cartes et c est tjrs con qd un acteur du marché disparait, mais il leur a manqué le dynamisme (et le talent marketting) k avait (nottez l imparfait) nvidia à l époque.
 
donc mon message sur 3dfx n était pas un troll.
 
quand à nvidia ki coule, je n y crois pas non plus et je ne le souhaite pas : plus y a d acteurs sur le marché, mieux c est (c est un peu + on est de fous + on rit)

mood
Publicité
Posté le 16-09-2003 à 23:16:52  profilanswer
 

n°2729325
moggbomber
War, war never changes
Posté le 16-09-2003 à 23:17:11  profilanswer
 

yoyo3d a écrit :


 
Bah on va pas polémiquer mais 3dfx était aussi méprisant et de mauvaise foi du temps de sa splendeur que Nvidia l'est aujourd'hui.
Un exemple : quand Nvidia a sorti le 32bit avec les TnT, 3dfx a répliqué que le 32bit servait à rien et était lent (ce qui à l'époque était vrai) et que ce qui comptait c'était les FPS.
Quand 3dfx a sorti un FSAA certe splendide mais gourmand, 3dfx nous a expliqué que ce qui comptait ce n'était pas les FPS mais la qualité du rendu... bref.


 
vi mais un 16bits nvidia etait caca par rapport a un 16bits 3DFX
(c que mon avis)
 
sinon nvidia dans le meme genre:
"on est les plus forts en 1600x1200 sans AA.
comment ca les ecran LCD en 1024 ?? ah ben on s'en fout meme si c un marché qui explose !"
 
ben voila  :ange:  
bien vu  :non:


---------------
Neuroatypique PEUQ GMSP GQGWL UZI
n°2729326
MagiSim
Magique, et oui !
Posté le 16-09-2003 à 23:17:21  profilanswer
 

ChrisLeurn a écrit :


comme tetris DX9.0 [:joce]

Premier jeu DX 9 quand même ! :D


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2729331
MagiSim
Magique, et oui !
Posté le 16-09-2003 à 23:18:27  profilanswer
 

Papours a écrit :


 
j étais sur k on allait me sortir le fsaa, comme quoi une feature efficace mais qui parle peu à l utilisateur lambda (c est qd mme lui qui achete) ca fait pas le poids contre des supers trucs aux noms qui petent bien comme "Transform & Lightning" - si j osais je dirais bien que ca vient du riva128 mais ca va pas passer.
 
sinon j ai aucun pb pour reconnaitre ke 3dfx a fait de bonnes cartes et c est tjrs con qd un acteur du marché disparait, mais il leur a manqué le dynamisme (et le talent marketting) k avait (nottez l imparfait) nvidia à l époque.
 
donc mon message sur 3dfx n était pas un troll.
 
quand à nvidia ki coule, je n y crois pas non plus et je ne le souhaite pas : plus y a d acteurs sur le marché, mieux c est (c est un peu + on est de fous + on rit)


+1.
 
N'empêche, l'edge antialiasing a jamais été utilisé (trop lent)


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2729333
MagiSim
Magique, et oui !
Posté le 16-09-2003 à 23:18:50  profilanswer
 

:lol:  :lol:  :lol:

MoggBomber a écrit :


 
vi mais un 16bits nvidia etait caca par rapport a un 16bits 3DFX
(c que mon avis)
 
sinon nvidia dans le meme genre:
"on est les plus forts en 1600x1200 sans AA.
comment ca les ecran LCD en 1024 ?? ah ben on s'en fout meme si c un marché qui explose !"
 
ben voila  :ange:  
bien vu  :non:  


 
 [:xp1700]


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2729334
smiley0041
Posté le 16-09-2003 à 23:20:21  profilanswer
 

vous voulez pas parler du ministre irakien de l'infomation ?  :o


---------------
Mon feed
n°2729337
MagiSim
Magique, et oui !
Posté le 16-09-2003 à 23:23:17  profilanswer
 

smiley0041 a écrit :

vous voulez pas parler du ministre irakien de l'infomation ?  :o  


 
Meuh non allons ! Oserions-nous ?


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2729339
Profil sup​primé
Posté le 16-09-2003 à 23:23:23  answer
 

MagiSim a écrit :

le 32bit ne palliait pas à la résolution. Le FSAA si. J'ai longtemps joué en 1024 FSAA 4x...... Mais c'est vrai qu'intègrer tout aurait été une bonne chose. Plus tu es compatible, mieux c'est.


 
Il est intéressant de constater que les dernières cartes 3dfx ne respectaient pas les spécifications de la dernière version de directx, le vesa 100 n'intégrant que les fonctions directx6 alors que directx7 était sorti depuis quelques mois.
Dans le même temps la réussite de Nvidia vient aussi du fait qu'ils ont par contre toujours collé à directx.
Directx6 = TnT 1 @ 2
Directx7 = GF 1 @ 2
Directx8 = GF 3 @ 4
 
Notez que pour la GFFx Nvidia s'est quelque peu éloigné des spécifications de directx9, certaines fonctions n'étant pas intégrées (displacement mapping), d'autres fonctions sont mal gérées (shaders)...
 
Et comme par hasard les GFFx ont quelques déboires.  
 
Bref point de salut en dehors du respect rigoureux des spécifications édictées par Microsoft pour directx. :o  

n°2729340
papours
Posté le 16-09-2003 à 23:24:18  profilanswer
 

MoggBomber a écrit :


 
les gars la releve de nicolas_b est assurée :lol:
 
trollons mes chers freres  :ange:  


 
Ca me fait de la peine (surtout pour toi) que tu n ais manifestement pas saisi l ironie de mon post, je mettrai des smileys pour toi la prochaine fois.
 
Je pense que des arguments techniques peuvent suffire à convaincre n importe qui (de bonne foi) que la solution graphique haut de gamme du moment est ati et que dire que le ceo de nvidia est un pourri est inutile et pas tres intéressant (et surement non fondé, il essaie de vendre sa camelotte c est tout).

n°2729348
MagiSim
Magique, et oui !
Posté le 16-09-2003 à 23:28:18  profilanswer
 

yoyo3d a écrit :


 
Il est intéressant de constater que les dernières cartes 3dfx ne respectaient pas les spécifications de la dernière version de directx, le vesa 100 n'intégrant que les fonctions directx6 alors que directx7 était sorti depuis quelques mois.
Dans le même temps la réussite de Nvidia vient aussi du fait qu'ils ont par contre toujours collé à directx.
Directx6 = TnT 1 @ 2
Directx7 = GF 1 @ 2
Directx8 = GF 3 @ 4
 
Notez que pour la GFFx Nvidia s'est quelque peu éloigné des spécifications de directx9, certaines fonctions n'étant pas intégrées (displacement mapping), d'autres fonctions sont mal gérées (shaders)...
 
Et comme par hasard les GFFx ont quelques déboires.  
 
Bref point de salut en dehors du respect rigoureux des spécifications édictées par Microsoft pour directx. :o  
 


 
C'est à croire, mais dans un sens, c'est mieux pour les développeurs...


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
mood
Publicité
Posté le 16-09-2003 à 23:28:18  profilanswer
 

n°2729352
blazkowicz
Posté le 16-09-2003 à 23:29:42  profilanswer
 

la voodoo5 introduisait des nouveautés (vues plus tard sur une démo du NV30 :sarcastic: ) : motion blur, depth of field (deux features pas mal utilisées sur PS2 et gamecube), soft shadows (-> ombres bien plus réalistes que les ombres taillées à la serpe de doom3 ; on commence à voir la même chose en pixel shader 2.0), soft reflections
 
3DFX n'apportait pas (à ce stade! le rampage c une autre affaire) de TnL, de DOT3 bumpmapping ni de registers combiners..
mais c'était tout de même de nouvelles features qui tentaient de faire avancer les choses (même si elle n'ont jamais pu servir)
 
si 3DFX n'avait pas été à la bourre on aurait peut-être eu ça dans la dreamcast de sega  (à l'origine 3DFX devait s'occuper du GPU de la DC, après les bornes d'arcade contenant des 3DFX voodoo1 :D)

n°2729354
MagiSim
Magique, et oui !
Posté le 16-09-2003 à 23:30:02  profilanswer
 

Papours a écrit :


 
Ca me fait de la peine (surtout pour toi) que tu n ais manifestement pas saisi l ironie de mon post, je mettrai des smileys pour toi la prochaine fois.
 
Je pense que des arguments techniques peuvent suffire à convaincre n importe qui (de bonne foi) que la solution graphique haut de gamme du moment est ati et que dire que le ceo de nvidia est un pourri est inutile et pas tres intéressant (et surement non fondé, il essaie de vendre sa camelotte c est tout).


 
Y'a vendre et vendre quand même  :o


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2729374
Profil sup​primé
Posté le 16-09-2003 à 23:42:24  answer
 

Blazkowicz a écrit :

la voodoo5 introduisait des nouveautés (vues plus tard sur une démo du NV30 :sarcastic: ) : motion blur, depth of field (deux features pas mal utilisées sur PS2 et gamecube), soft shadows (-> ombres bien plus réalistes que les ombres taillées à la serpe de doom3 ; on commence à voir la même chose en pixel shader 2.0), soft reflections
 
3DFX n'apportait pas (à ce stade! le rampage c une autre affaire) de TnL, de DOT3 bumpmapping ni de registers combiners..
mais c'était tout de même de nouvelles features qui tentaient de faire avancer les choses (même si elle n'ont jamais pu servir)


 
3dfx pouvait se permettre d'imposer ses technologies via le glide à une époque ou il n'y avait pas de librairies unniverselles de type directx.
A partir du moment ou Microsoft imposait directx, ou 3dfx n'était plus dominateur, ou la plupart des jeux étaient programmés directx, quelques fois opengl et de + en + rarement glide, il était difficile d'introduire de nouvelles technologies en faisant fi de la réalité du marché.
On peut imaginer que si la voodoo5 avait été 100% directx7 (et je pense plus particulièrement au T&L), 3dfx aurait tenu face à Nvidia.
Même si le motion blur, depth of field et soft shadows peuvent être considérés par certains comme + important que le T&L (et çà se comprend), le T&L lui est géré par directx7 et le temps ou les développeurs tenaient compte des spécificités de telle ou telle carte était déjà bien loin. :/
 
 
 

n°2729398
MagiSim
Magique, et oui !
Posté le 16-09-2003 à 23:53:22  profilanswer
 

yoyo3d a écrit :


 
3dfx pouvait se permettre d'imposer ses technologies via le glide à une époque ou il n'y avait pas de librairies unniverselles de type directx.
A partir du moment ou Microsoft imposait directx, ou 3dfx n'était plus dominateur, ou la plupart des jeux étaient programmés directx, quelques fois opengl et de + en + rarement glide, il était difficile d'introduire de nouvelles technologies en faisant fi de la réalité du marché.
On peut imaginer que si la voodoo5 avait été 100% directx7 (et je pense plus particulièrement au T&L), 3dfx aurait tenu face à Nvidia.
Même si le motion blur, depth of field et soft shadows peuvent être considérés par certains comme + important que le T&L (et çà se comprend), le T&L lui est géré par directx7 et le temps ou les développeurs tenaient compte des spécificités de telle ou telle carte était déjà bien loin. :/
 
 
 
 


clair. Le seul jeu à ma connaissance à avoir profité du T-Buffer, hormis le FSAA qui était universel, c'est Serious Sam.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2729404
blazkowicz
Posté le 16-09-2003 à 23:56:18  profilanswer
 

MagiSim a écrit :


clair. Le seul jeu à ma connaissance à avoir profité du T-Buffer, hormis le FSAA qui était universel, c'est Serious Sam.


 
je savais pas [:wam]
-> google pour en savoir plus, et je vais tester :love:
 
le seul autre jeu qui en a profité c'est une démo de quake 3
 
-> yoyo3D : comme tu le vois, c'était utilisable en opengl :p


Message édité par blazkowicz le 16-09-2003 à 23:59:27
n°2729407
hikoseijur​o
Posté le 16-09-2003 à 23:57:29  profilanswer
 

skeye a écrit :


 :heink:  
Dis plutot que dans ton cas à toi tu changes de CG plus souvent que de proc...c'est loin d'être le cas pour tout le monde!:o
Et au passage, en ce qui me concerne les cpu sont énormément moins chers que les CG, si tu veux une CG pour la garder assez longtemps faut débourser mini 200? en ce moment, tandis qu'un cpu à une centaine d'? (barton 2500+ par ex.) sera suffisant!:o


 
 
oui c'est ce que je dis, aujourd'hui les cpu coûtent moins chers que les CG, alors qu'avant c'était le contraire

n°2729409
papours
Posté le 16-09-2003 à 23:59:21  profilanswer
 

MagiSim a écrit :


 
Y'a vendre et vendre quand même  :o  


 
de toute facon faut être fou pour se fier à ce que raconte kelk un qui veut te vendre quelque chose, faut se renseigner c est tout (en lisant hfr par exemple) et éviter les + gros pieges.
 
sinon pour répondre à Blakovitz :
 

Citation :


la voodoo5 introduisait des nouveautés (vues plus tard sur une démo du NV30 :sarcastic: ) : motion blur, depth of field (deux features pas mal utilisées sur PS2 et gamecube), soft shadows (-> ombres bien plus réalistes que les ombres taillées à la serpe de doom3 ; on commence à voir la même chose en pixel shader 2.0), soft reflections


 
ok c est bien joli tout ca mais ces fonctionnalités demandaient un développement spécial et n étaient pas intégrées ds directx (c est dommage) ce qui pour un développeur n est pas tres intéressant (du boulot en plus, la part de marché des v5 justifiait elle cet effort ?).
 
Il serait intéressant de savoir pq on a pas eu droit à ces fonctions ds une mouture de DX (je pose la question sans intention trollesque hein).
Et la voie du t-buffer n était peut etre pas la meilleur puisqu on peut obtenir ces memes effets (et bcp d autres surtout ) avec les ps2.0 (bcp + tard soit)  
 

Citation :


si 3DFX n'avait pas été à la bourre on aurait peut-être eu ça dans la dreamcast de sega  (à l'origine 3DFX devait s'occuper du GPU de la DC, après les bornes d'arcade contenant des 3DFX voodoo1 :D)


 
ah oui je m en souviens de tout ca, les bornes avec le logo 3dfx au début de la démo (snif, j avais une voodoo 1 à l époque) et l histoire de la dreamcast. Ca m aurait bien plu de retrouver un chip 3dfx ds la DC mais c est l équipe jap qui a gagné avec la solution powerVR... pas une mauvaise solution d ailleurs (j aime ma DC).
 
Et puis bon, développer des trucs propriétaires c est pas le bon plan qd tout le monde cherche à établir des standards (c un peu le but de directx non ? en plein essort à l époque d ailleurs) et en plus chercher à produire soi meme des cartes alors que c était pas leur métier de base c etait risqué et vraissemblablement pas la chose à faire (on a vu ce que ca a donné).
 
Donc pour moi 3dfx ca reste des idées certes intéressantes et memes innovantes mais qd mme un gros paquet de bourdes (et c est bien dommage)


Message édité par papours le 17-09-2003 à 00:01:07
n°2729425
MagiSim
Magique, et oui !
Posté le 17-09-2003 à 00:06:15  profilanswer
 

Blazkowicz a écrit :


 
je savais pas [:wam]
-> google pour en savoir plus, et je vais tester :love:
 
le seul autre jeu qui en a profité c'est une démo de quake 3
 
-> yoyo3D : comme tu le vois, c'était utilisable en opengl :p


 
Démo de q3 confidentielle. sauf post mortem.
 
Sinon, le T-Buffer a été exposé dans DX8.
Le Rampage avait quelques trucs à lui dans DX8...


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2729432
MagiSim
Magique, et oui !
Posté le 17-09-2003 à 00:08:30  profilanswer
 

Papours a écrit :


 
de toute facon faut être fou pour se fier à ce que raconte kelk un qui veut te vendre quelque chose, faut se renseigner c est tout (en lisant hfr par exemple) et éviter les + gros pieges.
 
sinon pour répondre à Blakovitz :
 

Citation :


la voodoo5 introduisait des nouveautés (vues plus tard sur une démo du NV30 :sarcastic: ) : motion blur, depth of field (deux features pas mal utilisées sur PS2 et gamecube), soft shadows (-> ombres bien plus réalistes que les ombres taillées à la serpe de doom3 ; on commence à voir la même chose en pixel shader 2.0), soft reflections


 
ok c est bien joli tout ca mais ces fonctionnalités demandaient un développement spécial et n étaient pas intégrées ds directx (c est dommage) ce qui pour un développeur n est pas tres intéressant (du boulot en plus, la part de marché des v5 justifiait elle cet effort ?).
 
Il serait intéressant de savoir pq on a pas eu droit à ces fonctions ds une mouture de DX (je pose la question sans intention trollesque hein).
Et la voie du t-buffer n était peut etre pas la meilleur puisqu on peut obtenir ces memes effets (et bcp d autres surtout ) avec les ps2.0 (bcp + tard soit)  
 

Citation :


si 3DFX n'avait pas été à la bourre on aurait peut-être eu ça dans la dreamcast de sega  (à l'origine 3DFX devait s'occuper du GPU de la DC, après les bornes d'arcade contenant des 3DFX voodoo1 :D)


 
ah oui je m en souviens de tout ca, les bornes avec le logo 3dfx au début de la démo (snif, j avais une voodoo 1 à l époque) et l histoire de la dreamcast. Ca m aurait bien plu de retrouver un chip 3dfx ds la DC mais c est l équipe jap qui a gagné avec la solution powerVR... pas une mauvaise solution d ailleurs (j aime ma DC).
 
Et puis bon, développer des trucs propriétaires c est pas le bon plan qd tout le monde cherche à établir des standards (c un peu le but de directx non ? en plein essort à l époque d ailleurs) et en plus chercher à produire soi meme des cartes alors que c était pas leur métier de base c etait risqué et vraissemblablement pas la chose à faire (on a vu ce que ca a donné).
 
Donc pour moi 3dfx ca reste des idées certes intéressantes et memes innovantes mais qd mme un gros paquet de bourdes (et c est bien dommage)


 
Le T-Buffer était très simple à imlémenter, peut-autant que le Truform....  :sweat:


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2729434
blazkowicz
Posté le 17-09-2003 à 00:10:18  profilanswer
 

MagiSim a écrit :


 
Démo de q3 confidentielle. sauf post mortem.
 
Sinon, le T-Buffer a été exposé dans DX8.
Le Rampage avait quelques trucs à lui dans DX8...


 
 
elle doit être post mortem comme tu dis
ça fait quelques mois que je l'ai téléchargée [:ojap]
 
par contre ya que trois maps et pas de bots :(
et trouver un server Q3test 1.06 ça doit pas être évident :D
 
pour serious sam
http://translate.google.com/transl [...] 8%26sa%3DG
 
ils disent que la vitesse et la qualité d'image sont augmentées :love:
le motion blur est activé  
 

* pour tout heureux V5-Besitzer, qui essayer vouloir, ici le manière:
un -4*fsaa activer (d'ailleurs gehts pas!)
-Farbtiefe sur 16bit.
des -In les SeSam-Konsole les lignes suivantes dactylographient:
1. ogl_iTBuffereffect=2
2. ogl_iTBufferSamples=4

n°2729435
blazkowicz
Posté le 17-09-2003 à 00:13:14  profilanswer
 

MagiSim a écrit :


 
Le T-Buffer était très simple à imlémenter, peut-autant que le Truform....  :sweat:  


 
et rien n'empêchait que les autres constructeurs adaptent le T-buffer à leur produit sous licence 3DFX
nvidia a été plus adroit pour que directX 7 et 8 colle à ses archis
et bien sûr, couler 3DFX pratiquement le lendemain du jour ou le prototype du Rampage était fonctionnel ça a pas aidé :sarcastic:


Message édité par blazkowicz le 17-09-2003 à 00:13:29
n°2729444
MagiSim
Magique, et oui !
Posté le 17-09-2003 à 00:18:40  profilanswer
 

Blazkowicz a écrit :


 
 
elle doit être post mortem comme tu dis
ça fait quelques mois que je l'ai téléchargée [:ojap]
 
par contre ya que trois maps et pas de bots :(
et trouver un server Q3test 1.06 ça doit pas être évident :D
 
pour serious sam
http://translate.google.com/transl [...] 8%26sa%3DG
 
ils disent que la vitesse et la qualité d'image sont augmentées :love:
le motion blur est activé  
 

* pour tout heureux V5-Besitzer, qui essayer vouloir, ici le manière:
un -4*fsaa activer (d'ailleurs gehts pas!)
-Farbtiefe sur 16bit.
des -In les SeSam-Konsole les lignes suivantes dactylographient:
1. ogl_iTBuffereffect=2
2. ogl_iTBufferSamples=4




 
Merde, j'oubliais l' ogl, pour ça que ça marchait jamais  :cry: Bon, ben j'essaierai sur la V5 revenue du paradis dans le PC de ma copine quand il sera remonté (déménagemnet).


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2729446
MagiSim
Magique, et oui !
Posté le 17-09-2003 à 00:19:10  profilanswer
 

Blazkowicz a écrit :


 
et rien n'empêchait que les autres constructeurs adaptent le T-buffer à leur produit sous licence 3DFX
nvidia a été plus adroit pour que directX 7 et 8 colle à ses archis
et bien sûr, couler 3DFX pratiquement le lendemain du jour ou le prototype du Rampage était fonctionnel ça a pas aidé :sarcastic:


 
Le T-Buffer comme le FXT1 était libre de droits....  :sweat:
 
Et puis 3dfx n'a pas coulé du jour au lendemain, c'est un hasard que cela soit arrivé juste quand le rampage débarquait.


Message édité par MagiSim le 17-09-2003 à 00:24:57

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2729461
blazkowicz
Posté le 17-09-2003 à 00:32:54  profilanswer
 

MagiSim a écrit :


 
Merde, j'oubliais l' ogl, pour ça que ça marchait jamais  :cry: Bon, ben j'essaierai sur la V5 revenue du paradis dans le PC de ma copine quand il sera remonté (déménagemnet).


 
j'ai essayé la manip mais j'ai pas vu de différence :D
mais ça vient peut-être de wicked gl
je reteste
 
/edit:  sans wicked gl j'ai rien vu non plus.. j'avais même un gros aliasing sur les textures (indépendamment des commandes), et là je peux plus relancer le jeu sans wicked gl :o


Message édité par blazkowicz le 17-09-2003 à 00:54:59
n°2729476
hikoseijur​o
Posté le 17-09-2003 à 00:49:20  profilanswer
 

Blazkowicz a écrit :


 
c vrai
 
et bien que le NV3x soit aussi ridicule que le parhelia, la qualité en moins, ça continue à bien se vendre :/


 
 
Le problème du parhelia c'est sa fréquence ridicule de 220 MHz, je suis sûr qu'avec un petit 300 MHz (avec un water cooling ça doit être faisable), elle aurait torché la ti4600, ou alors en remaniant le driver pour que le quad texturing soit utilisé par les applications dual texturing. En faite seulement la moitié du fillrate de la carte est utilisé la plupart du temps. Mais Matrox n'a jamais fait d'optimisation, et pour le monde professionnel y a pas besoin d'ailleurs, ils achètent une carte en fonction de leurs besoins.

n°2729490
hikoseijur​o
Posté le 17-09-2003 à 01:12:58  profilanswer
 

yoyo3d a écrit :


 
Et oui j'ai une carte Ati, après avoir eu une GF3 et une GF1DDR, et 2 voodoo2 en sli et une voodoo1...
Mais n'ayant jamais été un Atidiot, un Nvidiot ou un 3dfxidiot j'ai toujours achetés mes cartes non pas en fonction de la marque en tombant dans l'idolatrie stupide, mais en fonction des perfs, de la qualité et du prix et force est de constater qu'aujourd'hui c'est Ati qui propose les meilleurs cartes du marché.
 
Quand à "parler sans savoir" je me demande si çà ne s'adresse pas plutot à toi  :heink:  


 
 
Je suis la même voie !, bien parlé

n°2729510
mareek
Et de 3 \o/
Posté le 17-09-2003 à 02:02:34  profilanswer
 


Citation :

Posté le 16/09/03 @ 12:55 par Magic-Sim


Ouais mais lui ça fait longtemps :D
 

MagiSim a écrit :

Oh que oui, ils ont beaucoup apporté. Niveau technologies, je suis d'accord... Mais niveau franchise et cie ?
 
http://magicsim.free.fr/outside/nvida_on_kyro2.pdf...
 
3dfx aussi a apporté au début, et un peu à la fin (FSAA, sacro-saint FSAA).... ça n'empêche pas certains de cracher ouvertement sur eux.... La différence est que 3dfx est mort dans la dignité..... Pas en faidant le même souk que Mr le fondeur de Santa Clara........
 
Humainement parlant, c'est 3dfx qui aurait dû rester.
 
Technologiquement, les deux étaient bons.


[:rofl] [:rofl] [:rofl] [:rofl]  
 
P.S. nVidia n'est pas un fondeur, ils font fabriquer leur puces par TSMC (et IBM bientot il me semble) [:maitre drasche]
 


"les nVidia cai mal :o" by Magicsim, on en a 35 par jours, pas besoin de rapatrier ceux qui viennent des autres forums en double :o
 

smiley0041 a écrit :

les pc de supermarché sont souvent ultra-stables et de qualité (j'ai pas dit rapide hein !)


t'en as utilisé beaucoup des PC de supermarché ? parce qu'avec la ram noname et les composants aux rabais, on a trouvé mieux.
 

nicolas_b a écrit :


[blink]/!\troll Overflow/!\[/blink]


dommage que la balise blink ne fonctionne pas  :sweat:  
 

MagiSim a écrit :


 :sleep: T'es saoulant quand même.....


Marrant ce post, on dirait moi quand je réponds à tes posts :D
 

nicolas_b a écrit :

Pourquoi qu'est ce qui c'est passé de nouveau ? Nvidia est toujours en tete dans tout les benchs, sauf le bench halflife2 sponsorisé par ati.


Dans tous les benchs DX9 [:aloy]
 

smiley0041 a écrit :

et c'est qui, qui fait chier son monde a ne pas suivre à la lettre les specs Dx9 ?  :heink:  


sources ? ©?
 

Blazkowicz a écrit :


4) bench opengl "équivalent directX 6" (jeu conçu pour voodoo2 et TNT) .. d'ailleurs la 9800pro 128 est à égalité avec la 5900U


Q3 utilise le T&L donc ça serait plutot DX7, non ?
 

MagiSim a écrit :


En plus, le langage optimisé de base pour les cartes nVIDIA :D


c'est le compilateur qui est optimisé pour les CG nVidia, pas le langage [:aloy] (je sais, tout le monde s'en fout mais je tennais à le préciser)
 

nicolas_b a écrit :

Vous me faites trop rire les gars.
 
Vous dites que les grands du monde de l'informatique sont unanymes. Quand on vous présente les 4 benchs qui ont été réalisés par les 4 plus grands sites francophone de hardware, vous dites qu'ils ne tiennent pas la route.
 
Vous marchez à fond sur l'intox, arreter de ressasser vos rancoeurs, et de repeter ce qu'un seul mec payé par ati à dit, la réalité c'est que tout les benchs ont des résultats équivalent la nvidia dépasse la ati.
 
Maintenant il y a un seul bench que personne n'a pu faire qui dit le contraire, on verra bien ...


Moi aussi je veux jouer à mettre des gros graphiques qui font chier tout le monde ? [:dawa]
http://www.hardware.fr/medias/photos_news/00/06/IMG0006653.gif
http://www.hardware.fr/medias/photos_news/00/06/IMG0006654.gif
http://www.hardware.fr/medias/photos_news/00/06/IMG0006705.gif
http://www.hardware.fr/medias/photos_news/00/06/IMG0006708.gif
http://www.hardware.fr/medias/photos_news/00/06/IMG0006709.gif
 
(de toute façon je m'en fout, mon post fait déjà 3Km)
 

ChrisLeurn a écrit :


Et meme que ATI utilise un wrapper pour ce jeux [:ddr555]


 :??: ben non, ils utilisent le path DX9 stout  
 

nicolas_b a écrit :


 
A vrai dire, je m'en fous un peu. Des jeux avec des shaders 2.0, il y en aura des centaines d'autres. S'il y en a un qui rament parmis tout ceux la, parce qu'il n'a pas été optimisé, il integrera la rubrique des flops.


heureusement que t'as pas un chip graphique intégré à la carte mère, sinon t'aurait pas dépassé démineur comme jeu [:ddr555]
 

MagiSim a écrit :


 
Remarque, on peut dire ce qu'on veut, nVIDIa émule bien une GF4mx + nV30emulate avec ses FX  :o  


:lol: pas mal celle là
 

yoyo3d a écrit :


Aujourd'hui on se rend compte que Quake3 a un bug avec les AMD ce qui explique la prédominance du P4. COmbien de testeurs nous ont expliqué pendant des années que le P4 faisait un super score avec Quake3 pour cause de bande passante plus importante? [:falcon'eye]


Et combien de newser ont colporté cette désinformation sans la vérifier ? :sarcastic:  
les "optimisations" apportées sur les fameuses dll pour athlon augmentent d'autant les perfs sur PIII et P4, cf tests effectués dasn ce topic:
http://forum.hardware.fr/forum2.ph [...] 7124&cat=1
et Q3 est très BP dépendant, cf:
http://www.hardware.fr/articles/283/page12.html
 
Comme quoi, faut pas croire tout ce qu'on lit, même si c'est pour fustiger le "méchant".
(je sais, je suis archi grilled par tout le monde)
 

Marc a écrit :

[:rofl]
Ah oui le fameux code SSE imaginaire dans Quake 3 ...  [:chacal_one333]  


dès que ce sont les "gros" qui sont "dénoncés", certaines personnes sont prètes à croire n'importe quoi :/
 

ChrisLeurn a écrit :

Quand je pense que Gnaag, lui meme ne croyait plus au NV30-35 :sweat: y'as donc pire que lui :whistle:  


gnaag était un expert boursier en plus  :jap:  
 

MagiSim a écrit :

Et comme d'hab... Les troll anti-3dfx post Voodoo2 oublient une chose importante. Le FSAA, cette chère fonction qui est argument de vente de nos CG actuelles...... :D


Ah ouais, le truc qu'on a vu pour la première fois sur une GF2GTS ?  :whistle:  
 
(oui, je sais, il était pourri sur la GF2 et c'était juste une bidouille dans les drivers)
 

nicolas_b a écrit :

Ca m'éclate, quand je vois le nombre de mecs qui passent leur temps à faire du forum en utilisant des cartes à plus de 300? ati, et que pendant ce temps la, le nombre de mecs qui jouent avec des cartes à moins de 150? nvidia.  
 
Ca veut tout dire.


(là ça veut dire qu'il est à court de trolls et qu'il lance sa dernière fléche: "jouez au lieu de papoter" )
 

nicolas_b a écrit :


 
Pour quand est ce les cartes ati optimisées pour faire des mots croisés, hein ?


(qu'est-ce que je disais !)
 

MagiSim a écrit :


 
Le jour où quelqu'un fera un mot croisé en DX9, on dira que c'est abusivement optimisé ATI :D


d'ailleurs, dawn est optimisé Ati, c'est de la triche :o
 

MagiSim a écrit :

le 32bit ne palliait pas à la résolution. Le FSAA si. J'ai longtemps joué en 1024 FSAA 4x...... Mais c'est vrai qu'intègrer tout aurait été une bonne chose. Plus tu es compatible, mieux c'est.


et le rapport avec les FPS qui comptent ou ne compten pas ? [:meganne]
 

MoggBomber a écrit :


sinon nvidia dans le meme genre:
"on est les plus forts en 1600x1200 sans AA.
comment ca les ecran LCD en 1024 ?? ah ben on s'en fout meme si c un marché qui explose !"


troller cai mal :o ?

yoyo3d a écrit :


 
Il est intéressant de constater que les dernières cartes 3dfx ne respectaient pas les spécifications de la dernière version de directx, le vesa 100 n'intégrant que les fonctions directx6 alors que directx7 était sorti depuis quelques mois.
Dans le même temps la réussite de Nvidia vient aussi du fait qu'ils ont par contre toujours collé à directx.
Directx6 = TnT 1 @ 2
Directx7 = GF 1 @ 2
Directx8 = GF 3 @ 4
 
Notez que pour la GFFx Nvidia s'est quelque peu éloigné des spécifications de directx9, certaines fonctions n'étant pas intégrées (displacement mapping), d'autres fonctions sont mal gérées (shaders)...
 
Et comme par hasard les GFFx ont quelques déboires.  
 
Bref point de salut en dehors du respect rigoureux des spécifications édictées par Microsoft pour directx. :o  
 


les GF1, 2 et 4Mx n'intègrent pas l'environment mapped bump mapping qui fait pourtant partie des specs DX7 (et est géré sur les matrox G400 et les Ati radeon)
 

Blazkowicz a écrit :


et rien n'empêchait que les autres constructeurs adaptent le T-buffer à leur produit sous licence 3DFX


ah bah oui, donner des sous à un concurent pour aider une feature qui n'existe pas dans les standard, ça c'est une bonne idée [:dawa]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2729518
blazkowicz
Posté le 17-09-2003 à 02:13:00  profilanswer
 

pour la licence je m'ai planté, c'est libre de droit :p

n°2729519
mareek
Et de 3 \o/
Posté le 17-09-2003 à 02:14:38  profilanswer
 

Blazkowicz a écrit :

pour la licence je m'ai planté, c'est libre de droit :p


ouais, j'ai vu après mais j'ai la flemme de corriger  :sleep: [edit]surtout que c'était pas une réponse serieuse donc spas important[/edit]
(de toute façon personne ne lit completement mes posts à ralonge)


Message édité par mareek le 17-09-2003 à 02:15:52

---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2729520
blazkowicz
Posté le 17-09-2003 à 02:16:52  profilanswer
 

c'est HHH lui?
 
http://www.3dnews.ru/documents/2535/PB127425-sm.jpg
 
il a un petit air de chef de la Corée du Nord [:meganne] :D
 
http://images.forbes.com/images/2002/03/04/royals_jongil_400x260.jpg
 

n°2729524
mareek
Et de 3 \o/
Posté le 17-09-2003 à 02:23:22  profilanswer
 


c'est JHH [:maitre drasche] (Jen-Hsun Huang)
 
(oui, je suis chiant mais je me soigne)


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2729528
hikoseijur​o
Posté le 17-09-2003 à 02:32:23  profilanswer
 

MagiSim a écrit :

Je pense pas que nVIDIA coulera, ils ont plein de thunes à verser dans le marketting.... :) Faut pas oublier que 3dfx s'était coupé des OEM aussi...
 
Et comme d'hab... Les troll anti-3dfx post Voodoo2 oublient une chose importante. Le FSAA, cette chère fonction qui est argument de vente de nos CG actuelles...... :D


 
 
Moi je trouve que y a eu que la voodoo1 de bien chez 3dfx
et concre c juste pacq'ils avaient le marché avec leur glide, je suis pas sûr que technologiquement c'était les meilleurs.

n°2729530
hikoseijur​o
Posté le 17-09-2003 à 02:37:50  profilanswer
 

Blazkowicz a écrit :


 
c le marketing..
tout le monde est obligé d'en faire
mais bon
sur ma 3DFX je joue en 640x480 (ou 800x600 selon les jeux) 16bits FSAA 4X :D
tout est affaire de compromis
je trouve le fsaa de 3DFX tellement beau que je préfère l'utiliser en basses résolutions plutôt que du 1024 sans rien :)


 
Je préfère du 1600 sans rien ou du 1024 fsaa 4x, je trouve que le fsaa 2x n'a jamais rien apporté, et que le fsaa en dessous 1024 ça reste moche.

n°2729532
hikoseijur​o
Posté le 17-09-2003 à 02:40:52  profilanswer
 

MoggBomber a écrit :


 
vi mais un 16bits nvidia etait caca par rapport a un 16bits 3DFX
(c que mon avis)
 
sinon nvidia dans le meme genre:
"on est les plus forts en 1600x1200 sans AA.
comment ca les ecran LCD en 1024 ?? ah ben on s'en fout meme si c un marché qui explose !"
 
ben voila  :ange:  
bien vu  :non:  


 
 
Je suis pas d'accord le 32bits est plus beau que le 16 bits 3dfx, deplus les écran LCD à l'époque excuse moi mais ct pas pour le jeu, c encore limite aujourd'hui d'ailleurs.

n°2729553
Boba_Fett
Posté le 17-09-2003 à 05:33:29  profilanswer
 

HikoSeijuro a écrit :


 
 
Je suis pas d'accord le 32bits est plus beau que le 16 bits 3dfx, deplus les écran LCD à l'époque excuse moi mais ct pas pour le jeu, c encore limite aujourd'hui d'ailleurs.


 
Il a jamais dit que le 32 bits Nvidia n'est pas + beau que le 16 bits 3dfx, il a dit que le 16 bits Nvidia est - beau que celui de 3dfx... De + si je me souviens bien je crois que les Voodoo 3 et + traitaient tout en 24 bits en interne et que ce n'est qu'à la fin qu'elles convertissaient en 16 bits.

n°2729554
psychic5
Posté le 17-09-2003 à 05:41:04  profilanswer
 

nicolas_b a écrit :

Vous me faites trop rire les gars.
 
Vous dites que les grands du monde de l'informatique sont unanymes. Quand on vous présente les 4 benchs qui ont été réalisés par les 4 plus grands sites francophone de hardware, vous dites qu'ils ne tiennent pas la route.
 
Vous marchez à fond sur l'intox, arreter de ressasser vos rancoeurs, et de repeter ce qu'un seul mec payé par ati à dit, la réalité c'est que tout les benchs ont des résultats équivalent la nvidia dépasse la ati.
 
Maintenant il y a un seul bench que personne n'a pu faire qui dit le contraire, on verra bien ...


 
Sans doute valve avait-il le choix entre un partenariat avec Nvdia ou ati mais
 
"?When we reviewed all the platforms available for use in the public unveiling of HL2, ATI?s RADEON 9800 PRO was unquestionably the choice for showing Half-Life 2 at its best.? ? Gabe Newell, Valve Software"
 
 

n°2729563
nicolas_b
Posté le 17-09-2003 à 07:14:01  profilanswer
 

psychic5 a écrit :


 
Sans doute valve avait-il le choix entre un partenariat avec Nvdia ou ati mais
 
"?When we reviewed all the platforms available for use in the public unveiling of HL2, ATI?s RADEON 9800 PRO was unquestionably the choice for showing Half-Life 2 at its best.? ? Gabe Newell, Valve Software"
 


 
Déjà tu te trompes, ça n'est pas valve qui a choisi ati, mais ati qui a choisit valve pour lancer ses cartes fin septembre en integrant half life2 à leur bundle. Ati va proposer une offre  carte graphique + jeu plus interressante que si tu achetais les deux seuls.  
 
Rien de surprenant de voir des gugus faire de la publicité pour une carte graphique meme s'ils en pensent pas moins. Imagine on  file quelques millions de $ à ta sociéte, pour que tu dises que t'aimes les cartes ati, que ce sont les meilleurs, et qu'accesoirement on prend en charge ta campagne de communication, qu'on t'assure un chiffre de vente minimun sans frais de packaging, tu ferais quoi toi ?
 
Bah ici, c'est pareil sauf que les personnes sur ce topic, ne sont pas payées, et se croient investis quasimment d'une foie religieuse/conviction politiqe en défendant à travers les "pseudos" interets du consommateurs les interets de leur marque.
 
Ils parlent de standard, alors que Nvidia est depuis 5 ans le seul constructeur de cartes graphiques respectueux des standards et des normes, qui fonctionnent sur tout les systèmes d'exploitation pc sans pertes de performances.  
 
A travers  son choix fx, et son éloignement des spécifications fermés microsoft directx, Nvidia n'a fait que confirmer sa politique de portabilité vers d'autres systèmes, tout comme l'ont fait IBM, SUN, AMD, Intel, et l'industrie en générale, ainsi qu'une multitude de pays: le chili, le japon, la chine, l'allemagne, depuis le début de l'année.
 
 Nvidia a fait ce choix, car ils créent du materiel avant tout pour les utilisateurs/clients et non pour faire plaisir à microsoft. Ensuite viennent les développeurs qui utilisent de plus en plus des api aux spécifications ouvertes, connues, modifiables, et optimisables d'un système à l'autre.  
 
Il suffit de regarder l'engouement, et l'effervecence de projets que provoquent en ce moment les moteurs opengl et linux, pour comprendre que directx n'est plus une position stratégique prédominante, mais une api parmis d'autres avec ses atouts et ses défaults.
 
Valve ne fonctionne que sur le terrain du propriétaire, et se refuse completement à utiliser des api ouvertes, non pas par choix technologique mais par pure question de profit (conf la petition portage de half life1 sous amiga, linux).
 
Ces utilisateurs ati qui tronent ici, parlent donc d'esclandre marketing/de propagande  alors que sont les premiers à être les bons clients de ce marketing, ou acteurs de cette propagande à défendre un standard au lieu de défendre une norme.  
 
Il suffit de regarder, ceux qui ont achetés des cartes ati, ce sont les premiers à dire que leur carte est la meilleur parce que le fabricant de cette carte l'a promulgué à travers la campagne marketing de half life, et qu'elle respecte un standard directx.
 
Mais si cette carte etait réellement la plus puissante du marché, personne ne se poserait la question, et il n'y aurait sans doute pas besoin de le repeter sur 23 page, de l'exposer sur des centaines de benchmark.
 
En reagissant à chaque nouvelle annonce de presse non avérée, ils ne font que colporter une rumeur sur un produit qui fonctionne bien, en tout cas beaucoup mieux que ce qu'ils le laissent entendre. Jusqu'a maintenant, aucun expert n'a pu controler la véracité, et l'impartialité du benchmark half life2 vis à vis des différentes marques de cartes graphiques.
 
Pour moi, quand ça se joue à moins de 5 fps tantôt en faveur de l'un tantôt en faveur de l'autre, et que les rendus sont de qualité équivalente, j'appelle ça un match dans un mouchoir de poche.  
 
Alors qu'ici, si on se laissait aller à la démence en écoutant les quand dira t-on, on penserait que la fin du monde a été annoncé dès la sortie des fx, et on se retrouve bien loin du sujet original qui concernait l'optimisation des cartes graphiques pour half life2.


Message édité par nicolas_b le 17-09-2003 à 08:45:38
n°2729586
moggbomber
War, war never changes
Posté le 17-09-2003 à 08:30:14  profilanswer
 

mon Dieu quelle bonne foi  :ange:  
 
tu as raison nicolas_b nous sommes tous victime du maketing agressif d'ATI et toi face a la tempete tu restes tel un phare voulant nous montrer le droit chemin  :jap:  
 
 
 :lol:  :lol:  :lol:  :lol:  :lol:  
 
mais moi je suis quoi ? :??:  
j'ai un GF4 et pourtant je "defend" ATI  :lol:  :lol:


---------------
Neuroatypique PEUQ GMSP GQGWL UZI
n°2729587
smiley0041
Posté le 17-09-2003 à 08:33:50  profilanswer
 

MoggBomber a écrit :

mon Dieu quelle bonne foi  :ange:  
 
tu as raison nicolas_b nous sommes tous victime du maketing agressif d'ATI et toi face a la tempete tu restes tel un phare voulant nous montrer le droit chemin  :jap:  
 
 
 :lol:  :lol:  :lol:  :lol:  :lol:  
 
mais moi je suis quoi ? :??:  
j'ai un GF4 et pourtant je "defend" ATI  :lol:  :lol:  

si vous le contredisez à chaque fois on y est encore dans 20pages ...
laissez le croire ce qu'il veut et laissont le troller dans son coin ..


---------------
Mon feed
n°2729589
hide
Posté le 17-09-2003 à 08:34:17  profilanswer
 

nicolas_b a écrit :

Ca m'éclate, quand je vois le nombre de mecs qui passent leur temps à faire du forum en utilisant des cartes à plus de 300? ati, et que pendant ce temps la, le nombre de mecs qui jouent avec des cartes à moins de 150? nvidia.  
 
Ca veut tout dire.

putain celle là, je la quote, juste pour le plaisir [:rofl]²


---------------
Et si c’était ça la vie / Et si on nous l’avait pas dit ?
n°2729593
moggbomber
War, war never changes
Posté le 17-09-2003 à 08:42:00  profilanswer
 

smiley0041 a écrit :

si vous le contredisez à chaque fois on y est encore dans 20pages ...
laissez le croire ce qu'il veut et laissont le troller dans son coin ..


 
23 pour le moment  :jap:  
 
mais on se marre bien :D :lol:


---------------
Neuroatypique PEUQ GMSP GQGWL UZI
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  21  22  23  ..  32  33  34  35  36  37

Aller à :
 

Sujets relatifs
[boitier] J'hésite et je cherche des conseils...ou trouver plus d'infos sur les parametres du bios de l'asus A7N8Xdel
upgrade pc , conseils?P4C800-E DELUXE / P4C800 : BIOS v1011 officiel !
[Avis, conseils] Trio cpu/mobo/ram correct ?Un point sur les bonnes configs pour jouer : des conseils ?
conseils pr une config optimisée pr la vidéo et l'image5900 Ultra ou 9800 Pro 256 pour Half-Life 2 ?
Plus de sujets relatifs à : [Topic Officiel] Half-life 2 et les cg: infos, conseils, ..


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR