Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1462 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Auteur Sujet :

[GF4] Alors on m'aurait menti ????????????

n°1165788
phalanxr
Posté le 07-02-2002 à 20:31:00  profilanswer
 

Reprise du message précédent :

mikestewart a écrit a écrit :

Ce qui est byzarre dans les reviews anglophones c'est qu'aucune ne parle de DX8.1, pourquoi ? Comme si c'était interdit... :sarcastic:  
 
Personnellement, une entreprise montante comme Nvidia qui s'est fait plus d'un milliard de dollars de chiffre d'affaire en 2001 prête à acheter ses concurrents peut parfaitement manipuler ce genre de média.  
 
Quand on voit comment Nvidia a contrôlé tout ce qui était sur le net avant l'annonce, pourquoi pas les reviews ? Nvidia avait même demandé de retirer les premiers benchs de la R8500 qui étaient sur Chip.de...  
 
The Inquirer, qui semblait plutôt en faveur d'ATI en disant que le R300 serait plus puissant et moins cher que le GF4 et qui s'était même fait critiqué par Nvidia, a retourné complétement sa veste à la veille de l'annonce du GF4 en devenant très agressif avec ATI.
 
On va me dire : "t'as trop regardé X-Files" , et alors ? Je fait des suppositions, rien de plus. Je trouve tout ça byzarre quand même...  
 
 




 
contente toi de regarder les benchs actuels !
sinon envoie un mail à Marc lui demandant pourquoi la r8500 est mystérieusement battue dans tous les benchs, y compris par des GF3 (!)
il t'avouera peut etre kil a reçu un cheq  :D

mood
Publicité
Posté le 07-02-2002 à 20:31:00  profilanswer
 

n°1165789
Profil sup​primé
Posté le 07-02-2002 à 20:31:20  answer
 

Origan a écrit a écrit :

 
Ils ne peuvent pas dire n'importe quoi je suppose, quand même. D'ailleurs personne ici n'a réussi à nier que les vraies nouveautés n'existent pas sur les GF4. C'est décevant, c'est tout, et énervant qu'ils prennent tout le monde pour des cons tous les 6 mois.  




 
kler que pour les nouveautés faudra attendre le Nv30. Le 1er chip à intégrer les technologies de Gigapixel et 3dfx.  :wahoo:

n°1165794
shadowblad​e
Posté le 07-02-2002 à 20:32:51  profilanswer
 

yoyo3d a écrit a écrit :

 
 
kler que pour les nouveautés faudra attendre le Nv30. Le 1er chip à intégrer les technologies de Gigapixel et 3dfx.  :wahoo:  




A l'epok il etait deja prevu que la GeForce 3 integre une partie de ces technologies...
On en est a la Geforce 4 et toujours rien :o

n°1165797
phalanxr
Posté le 07-02-2002 à 20:33:17  profilanswer
 

yoyo3d a écrit a écrit :

 
 
kler que pour les nouveautés faudra attendre le Nv30. Le 1er chip à intégrer les technologies de Gigapixel et 3dfx.  :wahoo:  




 
ouais c'est bien beau toutes ces technologies, mais ça t'arrive de jouer ? A quoi ?
les jeux ont a peu prés 2 ans de retard avant exploitation de nouvelles tech, alors kil prennent leurs temps pour nous sortir un remplaçant des vertex shader

 

[jfdsdjhfuetppo]--Message édité par phalanxr--[/jfdsdjhfuetppo]

n°1165802
syntaxx_er​ror
Posté le 07-02-2002 à 20:35:03  profilanswer
 

yoyo3d a écrit a écrit :

 
 
kler que pour les nouveautés faudra attendre le Nv30. Le 1er chip à intégrer les technologies de Gigapixel et 3dfx.  :wahoo:  




claro, le nv30 prendra en compte directx9 et bien d'autre chose encore. Delà à dire que le Geforce 4 c'est de la merde et du foutage de gueule, faut pas exagérer...
 
Le Geforce 4 est ni plus ni moins que la répétition du passage Geforce1/Geforce2, à savoir pas grand chose de différent, c'est tout. Y aura certainement beaucoup plus de differences entre un Geforce 4 et un Geforce 5, ce qui est le meme scénario que le passage du Geforce2 au geforce3...

 

[jfdsdjhfuetppo]--Message édité par syntaxx_error--[/jfdsdjhfuetppo]

n°1165805
mikestewar​t
Air Roll Spinnin'
Posté le 07-02-2002 à 20:36:37  profilanswer
 

phalanxr a écrit a écrit :

 
 
contente toi de regarder les benchs actuels !
sinon envoie un mail à Marc lui demandant pourquoi la r8500 est mystérieusement battue dans tous les benchs, y compris par des GF3 (!)
il t'avouera peut etre kil a reçu un cheq  :D  




 
Je ne parlais pas de Marc...et je ne parlais pas des perfs qui sont indiscutables. C'est juste que je doute de certaines reviews anglophones qui sont largement lues sur le web...

 

[jfdsdjhfuetppo]--Message édité par mikestewart--[/jfdsdjhfuetppo]

n°1165810
Profil sup​primé
Posté le 07-02-2002 à 20:38:17  answer
 

phalanxr a écrit a écrit :

 
 
quels jeux tu vois dans 6 mois ? a part Unreal II je trouve que ça se bouscule pas au portillon
 
ouais elle manque de fonctionnalité ! et alors ? :heink: ça sert à koi de rajouter des fonctionnalités alors que DirectX 8 est toujours pas exploité ?
DOOM III est prévu sur la base du GF3 et kan on voit komme ça plit la concurence  




 
Arrête de dire n'importe quoi.
Doom3 a commencé son développement à partir de la GF3 certes mais d'ici qu'il sorte le moteur sera gonflé pour les chips de 2003 c'est à dire les R300 et Nv30, voire + vu que le moteur aura une durée de vie de 3ans (imagine les cartes 3D dans 3ans).  
Naif que tu es. Carmack a déjà annoncé du 30Fps en 800*600*32bits toutes options activées sous GF3.
 
Pour rappel Quake3 a commencé son développement sur TnT.
Pour rappel encore Unreal2 a commencé son développement sur GF1.
 
 
Pour autant quake3 a commencé à être à l'aise avec la GF1 et Unreal2 nécessitera certainement une GF3.  :sarcastic:

n°1165817
Profil sup​primé
Posté le 07-02-2002 à 20:41:50  answer
 

phalanxr a écrit a écrit :

 
 
ouais c'est bien beau toutes ces technologies, mais ça t'arrive de jouer ? A quoi ?
les jeux ont a peu prés 2 ans de retard avant exploitation de nouvelles tech, alors kil prennent leurs temps pour nous sortir un remplaçant des vertex shader  




 
Un jeu profitera toujours d'une carte3D plus puissante de par l'augmentation du fillrate et de la bande passante ce qui permettra de monter dans les hautes résolutions ou d'un FSAA + performant.

n°1165820
phalanxr
Posté le 07-02-2002 à 20:42:00  profilanswer
 

yoyo3d a écrit a écrit :

 
 
Arrête de dire n'importe quoi.
Doom3 a commencé son développement à partir de la GF3 certes mais d'ici qu'il sorte le moteur sera gonflé pour les chips de 2003 c'est à dire les R300 et Nv30, voire + vu que le moteur aura une durée de vie de 3ans (imagine les cartes 3D dans 3ans).  
Naif que tu es. Carmack a déjà annoncé du 30Fps en 800*600*32bits toutes options activées sous GF3.
 
Pour rappel Quake3 a commencé son développement sur TnT.
Pour rappel encore Unreal2 a commencé son développement sur GF1.
 
 
Pour autant quake3 a commencé à être à l'aise avec la GF1 et Unreal2 nécessitera certainement une GF3.  :sarcastic:  




 
ben ouais mais DOOM III exploitera pas le le shader 1.4 tout comme Quake 3 utilisait pas le Hardware Transform et Lighting (juste transform)
donc la GF3 fera 30fps, la GF4 50 si on s'en réffére aux résultat Aquanox & co
 
donc pas besoin de nouvelles tech comme les shaders 1.4 !! on en a assez avec les techs d'aujoud'hui
 
ta pas répondu à ma question ! tu joue des fois ou seulement 3d mark ?

n°1165836
Profil sup​primé
Posté le 07-02-2002 à 20:46:35  answer
 

phalanxr a écrit a écrit :

 
 
ben ouais mais DOOM III exploitera pas le le shader 1.4 tout comme Quake 3 utilisait pas le Hardware Transform et Lighting (juste transform)
donc la GF3 fera 30fps, la GF4 50 si on s'en réffére aux résultat Aquanox & co
 
donc pas besoin de nouvelles tech comme les shaders 1.4 !! on en a assez avec les techs d'aujoud'hui
 
ta pas répondu à ma question ! tu joue des fois ou seulement 3d mark ?  




 
Et non gros malin. Doom3 utilisera massivement les shaders.
 
Et oui je joue à Max Payne, Return to castle, Sérious Sam 2 et bientôt Moh, Unreal2, warcraft3, Jedi Night, DukeForEver (quand il sortira), SoF2...
 
Et en multi je fais surtout du Quake3 actuellement.  :na:

mood
Publicité
Posté le 07-02-2002 à 20:46:35  profilanswer
 

n°1165865
mikestewar​t
Air Roll Spinnin'
Posté le 07-02-2002 à 20:54:52  profilanswer
 

Je cite Tom :  
 

Citation :

Some moaners are criticizing GeForce4 Ti for its lack of really new technologies. I would like to remind those people of the performance jump we are seeing here. Isn't that what really counts? GeForce4 Ti has so much power, it can run with anti aliasing enabled in virtually any game right now. Features alone don't win customers -- they ought to make sense, and the performance has to be right, too. GeForce4 Ti seems to be a clear winner here.


 
D'après Tom on peut assimiler ceux qui critiquent la GF4Ti à des "moaners", des personnes qui se plaignent. Je trouve ça très peu objectif. Tom veut pousser les lecteurs à oublier les fonctions, car il n'y en a pas de nouvelles, et à ne regarder que les graphiques qui sont évidemment spéctaculaires.  
 
Je trouve quand même byzarre qu'un testeur qui a dans ses mains une carte de "nouvelle génération" n'insiste pas sur le fait que la carte n'apporte rien de neuf à part des perfs.
 
Nvidia doit avoir quand même une certaine influence ici, car le testeur répéte exactement le slogan d'Nvidia sur le GeForce4 : "Experience raw, ferocious power like never before".

 

[jfdsdjhfuetppo]--Message édité par mikestewart--[/jfdsdjhfuetppo]

n°1165871
evildeus
Posté le 07-02-2002 à 20:57:13  profilanswer
 

mikestewart a écrit a écrit :

Je cite Tom :  
 

Citation :

Some moaners are criticizing GeForce4 Ti for its lack of really new technologies. I would like to remind those people of the performance jump we are seeing here. Isn't that what really counts? GeForce4 Ti has so much power, it can run with anti aliasing enabled in virtually any game right now. Features alone don't win customers -- they ought to make sense, and the performance has to be right, too. GeForce4 Ti seems to be a clear winner here.


 
D'après Tom on peut assimiler ceux qui critiquent la GF4Ti à des "moaners", des personnes qui se plaignent. Je trouve ça très peu objectif. Tom veut pousser les lecteurs à oublier les fonctions, car il n'y en a pas de nouvelles, et à ne regarder que les graphiques qui sont évidemment spéctaculaires.  
 
Je trouve quand même byzarre qu'un testeur qui a dans ses mains une carte de "nouvelle génération" n'insiste pas sur le fait que la carte n'apporte rien de neuf à part des perfs.
 
Nvidia doit avoir quand même une certaine influence ici, car le testeur répéte exactement le slogan d'Nvidia sur le GeForce4 : "Experience row, furious power like never before".  



Il dit aussi que la GF4 TI apporte une meilleure qualité d'image de meilleurs perf pour un prix correct...

n°1165876
Profil sup​primé
Posté le 07-02-2002 à 20:59:35  answer
 

Putain mais vous faites chier avec votre version anglaise de Tom.
Je me tue à vous dire qu'il existe une version française :
 
http://www.tomshardware.fr
 
"Il y en aura toujours pour récriminer en disant que la GeForce4 Ti manque de nouvelles technologies. Je voudrais alors leur rappeler le gain de performance qui est apporté. N?est-ce pas ce qui compte avant tout ? Les GeForce4 Ti sont si puissantes qu?elles peuvent faire tourner n?importe quel jeu avec l?anti-aliasing activé. Il faut plus que des caractéristiques ronflantes pour convaincre l?acheteur. Il faut que tout cela fasse sens et que la performance soit au rendez-vous. La GeForce4 répond à cette définition.  
 
La seule chose contre laquelle je voudrais protester : la mauvaise idée d?avoir donné le même nom aux deux nouvelles puces 3D les plus performantes, ainsi qu?à la technologie qui les sous-tendent. Le nom de « GeForce4 » ne voulait déjà plus rien dire le jour même où il a été donné. Car d?un côté il fait référence à une puissance 3D haut de gamme et, de l?autre, il renvoie à une technologie déjà obsolète avant l?apparition de la GeForce3. "
 
Bref tout celà relève du bon sens et je ne vois pas de parti pris.

n°1165890
Origan
Posté le 07-02-2002 à 21:05:30  profilanswer
 

phalanxr a écrit a écrit :

 
 
ben ouais mais DOOM III exploitera pas le le shader 1.4 tout comme Quake 3 utilisait pas le Hardware Transform et Lighting (juste transform)
donc la GF3 fera 30fps, la GF4 50 si on s'en réffére aux résultat Aquanox & co
 
donc pas besoin de nouvelles tech comme les shaders 1.4 !! on en a assez avec les techs d'aujoud'hui
 
ta pas répondu à ma question ! tu joue des fois ou seulement 3d mark ?  




Dans ce cas pourquoi ne pas parler de "GF3 Ti800" ou encore "GF3 Ti2002 powaboost NSE* " plutôt que de GF4 comme si c'était nouveau? Ce serait plus honnête.  
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
* Nerdz Special Edition :D

n°1165895
]sTa[$hark
Posté le 07-02-2002 à 21:07:12  profilanswer
 

Voila , bien dis Evildeus !  
 
C'est vrai apres tout, la 8500 et son ps 1.4 qui sert à rien ?? on s'en bat les couilles !  
 
c'est vrai, moi je vais me prendre une Ti 4400 ... et d'ici fin 2003 je changerai à nouveau de carte, quand peut être les ps 1.4 commenceront à peine à être utilisés dans les jeux !
 
Et puis je trouve que le Nview ainsi que l'amélioration démente en FSAA par rapport à la GF3 est pas mal du tout !
 
Car apres tout ca aurait servit à quoi des méga fonctions jamais utilisées ??????

n°1165910
Tetedeienc​h
Head Of God
Posté le 07-02-2002 à 21:15:19  profilanswer
 

Je doute toujours de l'avenir des shaders dans l'immédiat...
 
peut etre la prochiane génération !  
 
Qui sait !


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1165941
Tetedeienc​h
Head Of God
Posté le 07-02-2002 à 21:26:19  profilanswer
 

bon, mes impressions sur le sujet...
 
DX8 / DX8.1 , meme combat : RAB !
 
Le dénominateur commun utilisé sera avec de grandes chances DX 8.0 ...
 
pour la simple et bonne raison que en utilisant DX8.1, les développeurs se fermeraient le marché Nvidia ce qui est un peu couillon... surtout que les shaders DX8.0 sont pas trop mal niveau ce qu'on peut en faire...
 
Ensuite, parler des shaders ici me semble toujours superflu : c'est comme le T&L en son temps.
 
Prématuré a mort.
 
J'y croyais pas aux shaders de la geForce3, j'ai pas eu trop tort jusqu'a présent : on a pas vu la patate de jeux l'utilisant ( Giants version spéciale non commercialisée, aquanox... désolé si je les ai pas tous en tete mais bon HS sux :( )
 
Personellement, ma préférence va aux hautes résolution, a la puissance brutes, et aux fonctions intégrées n'ayant pas besoin de programmation spécifique lors de mon achat de carte vidéo.
 
j'ai été ravi de prendre une geForce3 de par sa puissance en haute résolution, et son FSAA quincunx que je pensais génial est qui m'emmerde finalement car ce n'est pas un HRAA mais bien un simple FSAA ( donc bof).
 
Le trueform n'est pas a mon sens une évolution intéressante, personellement ca ne m'attire pas (pour l'avoir vu tourner dans HL et quelques autres que je n'ai plus en tete, j'ai pas trouvé ca rentable en fait... )
 
meme si en soi l'idée est séduisante...
 
Bref, je pense comme yoyo3d qu'une GeForce3 Ti200 est un meilleur choix qu'une GF4Mx ...
 
Et que je réserverai la R8500 a ceux qui savent ce qu'ils font en prenant ATI nivo drivers et niveaux surprises dans les jeux qui pourraient survenir...
 
Le reste, GeForce4 Ti4400 me semble pas un mauvais parti, meme si ce n'est pas une révolution...
 
Pour la 4 Ti 4600, le probleme ne se pose meme pas : seul un marché fortuné pourra y accéder dans l'immédiat, dans l'unique but de dépenser du fric / se faire plaisir en ayant la référence du moment.
 
Et ce choix est toujours justifiable et justifié a mes yeux.
 
Enfin voila mon opinion perso...
 
PS : en passant, microland computer rulez ! GeForce3 Ti200 64 Mo Pixelview au prix d'une GeForce 2 Ti Leadtek, moi je dis top...


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1165942
Profil sup​primé
Posté le 07-02-2002 à 21:26:21  answer
 

Tetedeiench a écrit a écrit :

Je doute toujours de l'avenir des shaders dans l'immédiat...
 
peut etre la prochiane génération !  
 
Qui sait !  




 
C'est seulement maintenant que t'arrive toa?  :fou:

n°1165946
Profil sup​primé
Posté le 07-02-2002 à 21:27:46  answer
 

Tetedeiench a écrit a écrit :

Bref, je pense comme yoyo3d qu'une GeForce3 Ti200 est un meilleur choix qu'une GF4Mx ...
 




 
Ben non t'es pas censé être d'accord avec moi  :cry:

n°1165952
Tetedeienc​h
Head Of God
Posté le 07-02-2002 à 21:30:04  profilanswer
 

Hé, j'étais chez ma soeur a paris pour monter un PC pour une amie !
 
Arpentage de montgallet suckz :(
 
D'ailleurs, le bilan est pas trop mauvais :
 
XP 1600+
GeForce3 Ti200 + TV( au prix d'une GeForce2 TI ...)
WD 20Go 7200 Rpm
256 Mo DDR PC2100
Elite K7S5A son + lan
Fortissimo II
Clavier + souris sans fil crosoft
Liteon 24/10/40  
DVD LG 16/48
tour classik 300W
kanie Hedgehog cuivre( payé le prix d'un alpha PAL6035MUX chez surcouf)
Enceintes ACS33
Ecran iiyama 17" jesaispularéférence ( le remplacant du A702Ht, tube diamondtron, etc...)
 
le tout pour 8800 Francs... montage gratos...

 

[jfdsdjhfuetppo]--Message édité par Tetedeiench--[/jfdsdjhfuetppo]


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1165954
Tetedeienc​h
Head Of God
Posté le 07-02-2002 à 21:30:56  profilanswer
 

yoyo3d a écrit a écrit :

 
 
Ben non t'es pas censé être d'accord avec moi  :cry:  




 
ben dégotte des points ou on est pas d'accord !
 
je croyais que toi les shaders tu aimais ...

 

[jfdsdjhfuetppo]--Message édité par Tetedeiench--[/jfdsdjhfuetppo]


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1165976
Profil sup​primé
Posté le 07-02-2002 à 21:35:51  answer
 

Au fait tu as vu qu'ils ont enfin rêglé le bug du DXT1 chez Nvidia?  :D

n°1165978
Tetedeienc​h
Head Of God
Posté le 07-02-2002 à 21:36:22  profilanswer
 

Nop, mais si c'est le cas, je me marre : il était temps !


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1165991
MEI
|DarthPingoo(tm)|
Posté le 07-02-2002 à 21:40:01  profilanswer
 

Sisi il est reglé ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°1165993
Tetedeienc​h
Head Of God
Posté le 07-02-2002 à 21:40:53  profilanswer
 

donc :lol: :lol: Bande de lents chez Nvidia !


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1165995
Profil sup​primé
Posté le 07-02-2002 à 21:42:45  answer
 

Mei a écrit a écrit :

Sisi il est reglé ;)  




 
yes
 
http://www.tomshardware.fr/article [...] NumPage=18
 
"Avec la GeForce4, NVIDIA a résolu un problème qui persistait depuis la première génération de GeForce : la qualité médiocre de l?affichage de la compression de texture DXTC1. Avec une profondeur de couleur 16-bit, les textures rendues étaient grossières, tout comme les couleurs. Le ciel dans Quake 3 n?en est qu?un exemple.  
 
Avec la GeForce4, NVIDIA a enfin résolu ce problème."
 
http://www.tomshardware.fr/images/3d/20020206/dxtc.jpg
 
http://www.tomshardware.fr/images/3d/20020206/dxtc.jpg

n°1166001
YodaNC
Posté le 07-02-2002 à 21:43:45  profilanswer
 

yoyo3d a écrit a écrit :

Au fait tu as vu qu'ils ont enfin rêglé le bug du DXT1 chez Nvidia?  :D  



c pour ca que c gf4 et pa gf3 :lol:

n°1166002
Tetedeienc​h
Head Of God
Posté le 07-02-2002 à 21:44:53  profilanswer
 

bref, vous savez quoi ?
 
Tout ce que je viens de lire me renforce danss l'idée personelle que mon choix d'acheter une GeForce3 a sa sortie ne fut pas un mauvais choix...
 
Franchement, content :)
 
C'est ce que je retiendrai de cette histoire !


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1166009
Profil sup​primé
Posté le 07-02-2002 à 21:45:52  answer
 

Tetedeiench a écrit a écrit :

bref, vous savez quoi ?
 
Tout ce que je viens de lire me renforce danss l'idée personelle que mon choix d'acheter une GeForce3 a sa sortie ne fut pas un mauvais choix...
 
Franchement, content :)
 
C'est ce que je retiendrai de cette histoire !  




 
Tu vas attendre le Nv30 maintenant?  :??:

n°1166013
Profil sup​primé
Posté le 07-02-2002 à 21:46:32  answer
 

yodanc a écrit a écrit :

c pour ca que c gf4 et pa gf3 :lol:  




 
Ben voilà l'explication  :D

n°1166020
Tetedeienc​h
Head Of God
Posté le 07-02-2002 à 21:49:02  profilanswer
 

yoyo3d a écrit a écrit :

 
 
Tu vas attendre le Nv30 maintenant?  :??:  




 
ou la riposte chez ATI ... Chuis pas sectaire.
 
la p^rochaine qui me botte quand ma  GeForce3 me suffira plus, tout simplement...
 
et si je change : vu que je vais devoir me fendre d'un emprunt pour partir un an aux states, spa gagné :/


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1166123
mikestewar​t
Air Roll Spinnin'
Posté le 07-02-2002 à 22:31:04  profilanswer
 

Désolé de vous avoir embété avec mes suppositions mais je ne vous cacherait pas qu'Nvidia me fait peur. Cette compagnie grossit vite, trop vite. Une entreprise de cette taille là qui double son chiffre d'affaire à chaque année, doit ralentir sa croissance sinôn elle arrivera à près 100% des parts sur le marché des cartes graphiques en à peine 2 ans et deviendrait en quelque sorte un Microsoft de la 3D.  
 
   ATI est notre seule rempart sérieux fâce à Nvidia, car Matrox, ST Microelectronics ne sont clairement plus dans la course. Comme vous pouvez le voir je suis à fond derrière ATI parce que je sais que cette boîte a une ambition beaucoup moins grande qu'Nvidia. Nvidia c'est une boîte de requins et ça ne s'arrête pas aux cartes graphiques, mais aux chipsets puis bientôt aux CPUs qui sait...Enfin, j'éspère qu'on laissera le temps à ATI de sortir ses R250 et R300, et qu'on se satisfera pour l'instant avec une R8500, pas une GF4.
 
   Je sais que vous vous dites "qu'est-ce qu'il délire encore ?" et ça peut paraitre byzarre de dire ça sur un forum d'Hardware mais j'ai un mauvais présentiment. Nvidia est trop parfaite comme compagnie, trop bien gérée...

n°1166145
vachefolle
russian knights en action
Posté le 07-02-2002 à 22:37:29  profilanswer
 

bon alors c'est qui le mieux
ATI RADEON ou NVIDIA GAI FORCE 4 ?


---------------
La douleur n'est qu'une information
n°1166153
evildeus
Posté le 07-02-2002 à 22:41:42  profilanswer
 

mikestewart a écrit a écrit :

Désolé de vous avoir embété avec mes suppositions mais je ne vous cacherait pas qu'Nvidia me fait peur. Cette compagnie grossit vite, trop vite. Une entreprise de cette taille là qui double son chiffre d'affaire à chaque année, doit ralentir sa croissance sinôn elle arrivera à près 100% des parts sur le marché des cartes graphiques en à peine 2 ans et deviendrait en quelque sorte un Microsoft de la 3D.  
 
   ATI est notre seule rempart sérieux fâce à Nvidia, car Matrox, ST Microelectronics ne sont clairement plus dans la course. Comme vous pouvez le voir je suis à fond derrière ATI parce que je sais que cette boîte a une ambition beaucoup moins grande qu'Nvidia. Nvidia c'est une boîte de requins et ça ne s'arrête pas aux cartes graphiques, mais aux chipsets puis bientôt aux CPUs qui sait...Enfin, j'éspère qu'on laissera le temps à ATI de sortir ses R250 et R300, et qu'on se satisfera pour l'instant avec une R8500, pas une GF4.
 
   Je sais que vous vous dites "qu'est-ce qu'il délire encore ?" et ça peut paraitre byzarre de dire ça sur un forum d'Hardware mais j'ai un mauvais présentiment. Nvidia est trop parfaite comme compagnie, trop bien gérée...  



Tu t'es déjà posé la question de savoir quel est le but d'une entre^prise et les moyens d'y parvenir?
Tu pense que tes amis d'ATI ferait mieux s'ils étaient à la place de NVIDIA?
Perso, quand j'upgraderai mon vieux PC, je prendrai qqch qui tienne 2/3 ans, donc le top du moment, amd ou intel, ati ou nvidia...

n°1166157
barbarella
Posté le 07-02-2002 à 22:42:56  profilanswer
 

vachefolle a écrit a écrit :

bon alors c'est qui le mieux
ATI RADEON ou NVIDIA GAI FORCE 4 ?  




 
Pour les jeux je dirais La GF4 mais pas les mx. En terme de rapport prix/qualité/perf la 8500LE. le prix de cette dernière devant baisser dans les jours qui viennent

n°1166158
Tetedeienc​h
Head Of God
Posté le 07-02-2002 à 22:42:59  profilanswer
 

mikestewart a écrit a écrit :

Désolé de vous avoir embété avec mes suppositions mais je ne vous cacherait pas qu'Nvidia me fait peur. Cette compagnie grossit vite, trop vite. Une entreprise de cette taille là qui double son chiffre d'affaire à chaque année, doit ralentir sa croissance sinôn elle arrivera à près 100% des parts sur le marché des cartes graphiques en à peine 2 ans et deviendrait en quelque sorte un Microsoft de la 3D.  
 
   ATI est notre seule rempart sérieux fâce à Nvidia, car Matrox, ST Microelectronics ne sont clairement plus dans la course. Comme vous pouvez le voir je suis à fond derrière ATI parce que je sais que cette boîte a une ambition beaucoup moins grande qu'Nvidia. Nvidia c'est une boîte de requins et ça ne s'arrête pas aux cartes graphiques, mais aux chipsets puis bientôt aux CPUs qui sait...Enfin, j'éspère qu'on laissera le temps à ATI de sortir ses R250 et R300, et qu'on se satisfera pour l'instant avec une R8500, pas une GF4.
 
   Je sais que vous vous dites "qu'est-ce qu'il délire encore ?" et ça peut paraitre byzarre de dire ça sur un forum d'Hardware mais j'ai un mauvais présentiment. Nvidia est trop parfaite comme compagnie, trop bien gérée...  




 
Mouahahahaha pardon, désolé, excuse moi.
 
Ati l'ami des prix, Nvidia le roi des cacas...
 
ahlala... j'aurai tout lu ce soir.
 
Ce sont deux entrerpsies, dont l'une est en position forte, et l'autre en retrait.
 
La première fait donc tout son possible pour garder sa place, et la seconde son possible pour gagner du terrain face a Nvidia...
 
Donc la première a plus une stratégie de stabilisation dans la durée (sortie de valeurs sures, essais d'exclusivité de partenaires), et l'autre a une volonté expentionniste (cherche des produits phare, fais une croix sur la rentabilité pour privilégier la croissance... etc).
 
Je crois franchement que Nvidia ou ATI, C kif kif.
 
Ati serai a la place de Nvidia je vois pas pourquoi ils auraient eu un comportement différent.
 
Parce que avant tout, ce sont des entreprises, dont le but est le bénéfice...
 
pas le plaisir de pequenots devant leur ecran...
 
Sur cette note franchement marrante qui prouve bien que la stratégie d'ATI marche excellemment bien sur certains ne connaissant pas trop comment fonctionne un marché...


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1166162
YodaNC
Posté le 07-02-2002 à 22:45:12  profilanswer
 

gf4mx440 a moins de 1000francs en france

n°1166165
mikestewar​t
Air Roll Spinnin'
Posté le 07-02-2002 à 22:45:40  profilanswer
 

evildeus > la différence entre toi et moi c'est que quand j'achéte du hardware je ne pense pas qu'à avoir le meilleur pour mon pognon, je sais que j'investit dans une entreprise donc mon choix dépends aussi de ce que je pense de cette entreprise. :)

n°1166167
vachefolle
russian knights en action
Posté le 07-02-2002 à 22:45:44  profilanswer
 

Barbarella a écrit a écrit :

 
 
Pour les jeux je dirais La GF4 mais pas les mx. En terme de rapport prix/qualité/perf la 8500LE. le prix de cette dernière devant baisser dans les jours qui viennent  




et les drivers (ATI) ?
y parait que capuduku  :??:

 

[jfdsdjhfuetppo]--Message édité par vachefolle--[/jfdsdjhfuetppo]


---------------
La douleur n'est qu'une information
n°1166170
Profil sup​primé
Posté le 07-02-2002 à 22:47:06  answer
 

vachefolle a écrit a écrit :

 
et les drivers (ATI) ?
y parait que capuduku  :??:  




 
L'expression est osée. Disons que c'est - pire qu'avant et + pire que Nvidia.  :o

n°1166179
barbarella
Posté le 07-02-2002 à 22:50:48  profilanswer
 

kif,kif ? bof :D
 
en fait la seule chose qui différencie ATI de Nvidia c'est leur culture d'entreprise. en particulier ATI s'efforce plus de proposer des inovations dans la qualité. 2D, decompression DVD, 3D. Ils ne sont (certaisn ajouteront malheureusement) pas exclusivement tourné vers les perfs.  
 
Nvidia a trop tendance a attendre de devoir répliquer a un concurent pour réhausser la qualités du service rendu par ses produits, c'est embetant et perso je n'adhère pas a cette démarche.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5

Aller à :
Ajouter une réponse
 

Sujets relatifs
GF4GF4, r250 et r300 ok mais les autres?
GF4 CARTE DE BLAIREAU ???GF4 A Mon Humble Avis.....
Leadtek GF4 : miam miamNDA GF4 TI 4600 KASSER :D
GF4 pour......175? ???BENCH GF4 MX 440 VS TI 200
CA Y EST CAI TOMBER : SPEF GF4 DEVOALED ! LES MX ROXXXGF4 : quoi de 9 ?
Plus de sujets relatifs à : [GF4] Alors on m'aurait menti ????????????


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR