Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1521 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Auteur Sujet :

HD2900XT 1GB DDR4 MAJ

n°5574333
mac fly
Posté le 06-06-2007 à 21:26:42  profilanswer
 

Reprise du message précédent :
Je n'irais pas dire que l'archi est loupée, mais juste qu'il manque la finition qui aurait fait toute la différence.Mais de tte évidence ça devait rajouter à la complexité de la puce... (ou peut etre à son cout de fabriquation).On peut déja supposer qu'il y aura des corrections dans leurs futures GPU qui boosteront réellement les perfs...
 
Perso entre la GTS 640mo et la 2900xt j'ai tjrs conseillé la 2900xt.Le truc c'est que moi je ne choisirais ni l'une ni l'autre, mon choix se résume à une grosse carte par cher type 8800gts 320mo @270€ ou au top des cartes @480€ type 8800gtx (ou attendre la fin d'année pour le G92)
 
Je considère que la 8800ultra n'a pas grand interet, tout comme cette 2900xt 1go

mood
Publicité
Posté le 06-06-2007 à 21:26:42  profilanswer
 

n°5574336
rci
Posté le 06-06-2007 à 21:27:23  profilanswer
 

Voodoonice a écrit :

Et toi tu fait pas le trooll avec toujours les mêmes arguments bidons des jeux optimiser pour Nvidia et les nouveaux drivers ATi....:sarcastic:  
ça vous arracherai la gueule de reconnaître que l'archi de cette carte est loupé globalement même si dans l'absolu ça reste une très bonne carte   :jap:


 :lol:  clair

n°5574338
ludo021288
Halte au troll!
Posté le 06-06-2007 à 21:28:23  profilanswer
 

mac fly a écrit :

Je n'irais pas dire que l'archi est loupée, mais juste qu'il manque la finition qui aurait fait toute la différence.Mais de tte évidence ça devait rajouter à la complexité de la puce... (ou peut etre à son cout de fabriquation).On peut déja supposer qu'il y aura des corrections dans leurs futures GPU qui boosteront réellement les perfs...

 

Perso entre la GTS 640mo et la 2900xt j'ai tjrs conseillé la 2900xt.Le truc c'est que moi je ne choisirais ni l'une ni l'autre, mon choix se résume à une grosse carte par cher type 8800gts 320mo @270€ ou au top des cartes @480€ type 8800gtx (ou attendre la fin d'année pour le G92)

 

Je considère que la 8800ultra n'a pas grand interet, tout comme cette 2900xt 1go

 

:jap:

n°5574340
rci
Posté le 06-06-2007 à 21:28:36  profilanswer
 

mac fly a écrit :

Je n'irais pas dire que l'archi est loupée, mais juste qu'il manque la finition qui aurait fait toute la différence.Mais de tte évidence ça devait rajouter à la complexité de la puce... (ou peut etre à son cout de fabriquation).On peut déja supposer qu'il y aura des corrections dans leurs futures GPU qui boosteront réellement les perfs...
 
Perso entre la GTS 640mo et la 2900xt j'ai tjrs conseillé la 2900xt.Le truc c'est que moi je ne choisirais ni l'une ni l'autre, mon choix se résume à une grosse carte par cher type 8800gts 320mo @270€ ou au top des cartes @480€ type 8800gtx (ou attendre la fin d'année pour le G92)
 
Je considère que la 8800ultra n'a pas grand interet, tout comme cette 2900xt 1go


 
la ultra prends des frequences de folie =nouvelle revision de la puce

n°5574355
mac fly
Posté le 06-06-2007 à 21:32:41  profilanswer
 

rci a écrit :

la ultra prends des frequences de folie =nouvelle revision de la puce


C'est surtout + de tension qui fait qu'elle monte "un peu" plus haut ! ...
Tu prends la crème des GTX et tu leur applique la meme tension -> tu obtiens le meme résultat  :whistle:  
 
Ma GTS se prend du 685mhz gpu sans voltmod mais avec un meilleur ventirad, et il y a des GTX qui montent pareil  :pt1cable:

n°5574370
Cizia
Posté le 06-06-2007 à 21:37:39  profilanswer
 

je pense qu'il parler des ram en 0.8ns...

n°5574373
rci
Posté le 06-06-2007 à 21:37:57  profilanswer
 

mac fly a écrit :

C'est surtout + de tension qui fait qu'elle monte "un peu" plus haut ! ...
Tu prends la crème des GTX et tu leur applique la meme tension -> tu obtiens le meme résultat  :whistle:  
 
Ma GTS se prend du 685mhz gpu sans voltmod mais avec un meilleur ventirad, et il y a des GTX qui montent pareil  :pt1cable:


 
je crois que tes pas bien au courant de la ultra  :D

n°5574375
mac fly
Posté le 06-06-2007 à 21:38:22  profilanswer
 

Cizia a écrit :

je pense qu'il parler des ram en 0.8ns...


Non, vu sa réponse il parle bien du gpu  ;)

n°5574378
mac fly
Posté le 06-06-2007 à 21:38:55  profilanswer
 

rci a écrit :

je crois que tes pas bien au courant de la ultra  :D


Visiblement plus que toi de ce qui se fait en G80  :hello:
 
Je sais très bien que l'ultra est une nvlle révision, mais c'est pas ça qui la propulse aussi haut -> tu prends les meilleurs GTX et tu leurs appliques la meme tension, tu obtiens le meme o/c gpu.
Pour la ram, tu n'as rien à m'apprendre, je sais très bien que les modules de l'ultra ne sont pas les memes.Le problème est que une GTX bien poussée et une utra bien poussée se tiennent dans un mouchoir de poche au final, sachant que les GTX sont à partir de 480€ et l'ultra elle est à combien au fait ?   :D  
 
ps: meme raisonnement pour cette 2900xt à 1go...


Message édité par mac fly le 06-06-2007 à 21:47:00
n°5574381
vlad drac
Posté le 06-06-2007 à 21:40:59  profilanswer
 

ludo021288 a écrit :

Non je ne trolle pas. Effectivement, le choix de l'architecture n'était pas idéal. Nénanmoins, en cassant les prix de la carte, ils ont pu fournir un produit intéressant. Pour les jeux optimisés, je dis juste que le G80 a 6 mois d'anciennete et que le fait d'extarire toujours les benchs de Lost planet devient un poil agaçant... Laissons au moins un mois à ATI un mois pour fournir un driver approprié pour ces cartes, les perfs étant encourageantes sur COJ, il n'y a pas de raisons qu'elle ne le soit pas sous Lost planet


 
Pour l'histoire des drivers, à moins que Cupidon ne vous les ammène sur un plateau d'argent, n'espérez pas de miracle, ça commence à devenir laçant tous ces (faux) espoirs, ça trompe les gens plus qu'autre chose.
 

Citation :

Laissons au moins un mois à ATI pour fournir un driver


 
Super le R600 est finalisé depuis début février, à ton avis qu'est-ce qu'ils font depuis 4 mois ? Une belote ?  :pt1cable:  
 
 

mac fly a écrit :

Ben justement... je vois partout dire: "il aurait suffit", ben oui, c'est sur, il aurait suffit... mais je doute que vous soyez plus fort que les ingés Amd.Si le R600 est ce qu'il est aujoud'hui c'est bien qu'il y a des contraintes qque part, sinon le necessaire aurait été fait pour s'assurer d'avoir une carte qui bat clairement la GTX/l'ultra.Parce que cette 2900xt 1go + fréqunces poussées au max, franchement je ne vois pas son interet.Ils feraient mieux de "s'acharner" sur les révisions du R600 afin d'assurer un max la prochaine carte.


 
C'est juste  :jap:  

mood
Publicité
Posté le 06-06-2007 à 21:40:59  profilanswer
 

n°5574616
rci
Posté le 06-06-2007 à 23:25:12  profilanswer
 

vlad drac a écrit :

Pour l'histoire des drivers, à moins que Cupidon ne vous les ammène sur un plateau d'argent, n'espérez pas de miracle, ça commence à devenir laçant tous ces (faux) espoirs, ça trompe les gens plus qu'autre chose.
 

Citation :

Laissons au moins un mois à ATI pour fournir un driver


 
Super le R600 est finalisé depuis début février, à ton avis qu'est-ce qu'ils font depuis 4 mois ? Une belote ?  :pt1cable:  
 
 
 
 
C'est juste  :jap:


 
les pro ati  ils revent en ce moment  :lol:  

n°5574628
sasuke87
Posté le 06-06-2007 à 23:27:39  profilanswer
 

mac fly a écrit :

Je n'irais pas dire que l'archi est loupée, mais juste qu'il manque la finition qui aurait fait toute la différence.Mais de tte évidence ça devait rajouter à la complexité de la puce... (ou peut etre à son cout de fabriquation).On peut déja supposer qu'il y aura des corrections dans leurs futures GPU qui boosteront réellement les perfs...
 
Perso entre la GTS 640mo et la 2900xt j'ai tjrs conseillé la 2900xt.Le truc c'est que moi je ne choisirais ni l'une ni l'autre, mon choix se résume à une grosse carte par cher type 8800gts 320mo @270€ ou au top des cartes @480€ type 8800gtx (ou attendre la fin d'année pour le G92)
 
Je considère que la 8800ultra n'a pas grand interet, tout comme cette 2900xt 1go


 
+1000000000  :jap:

n°5574635
sasuke87
Posté le 06-06-2007 à 23:33:28  profilanswer
 

vlad drac a écrit :

Pour l'histoire des drivers, à moins que Cupidon ne vous les ammène sur un plateau d'argent, n'espérez pas de miracle, ça commence à devenir laçant tous ces (faux) espoirs, ça trompe les gens plus qu'autre chose.
 

Citation :

Laissons au moins un mois à ATI pour fournir un driver


 
Super le R600 est finalisé depuis début février, à ton avis qu'est-ce qu'ils font depuis 4 mois ? Une belote ?  :pt1cable:  
 
 
 
 
C'est juste  :jap:


 
En même temps quant on vois les gains des drivers envoyés inextrémistes à la presse (et enocre la majorité a utilisé les anciens drivers), il y a quand même des changement de situation qui laisse rêveur  :love: , sans oublier que les contre performance de la carte sont souvent synonyme de perfs équivalente à une x1950xtx... OK l'archi a des réels défauts, mais de là a faire juste aussi bien qu'une x1950xtx y a un soucis  :whistle:

n°5574637
Cizia
Posté le 06-06-2007 à 23:33:48  profilanswer
 

le grand interet ,c'est quel risque de faire baisser la 512mo..

n°5574788
mac fly
Posté le 07-06-2007 à 01:59:53  profilanswer
 

Ca reste à voir... la 8800 ultra n'a pas pour autant fait baisser le prix de la 8800GTX alors que Nvidia pouvait se le permettre vu les tunes qu'ils ont amassé
Sincèrement, je vois difficilement comment d'entrée de jeux Amd pourrait se permettre de "baisser le prix" de la 2900xt que j'estime déja au plus bas par rapport à ce que ça doit leur couter  :sweat: .Faut rester les pieds sur terre et songer qu'un gpu ça coute une fortune en développement et en production à sa sortie.
 
Si ils veulent devenir encore + agressifs en perfs/prix, baisser le prix de la 2900xt suffit (mais comme je l'ai dit, pour une nouvelle archi je trouve qu'ils ont déja placé la carte à un prix serré, il doivent probablement se faire très peu de marge en l'état actuel des choses -> si ils pouvaient encore baisser les tarifs ils l'auraient fait vu qu'ils ne sont pas en position dominante sur le très haut de gamme... ) je vois pas en quoi la 2900xt 1go pourrait intervenir dans cette histoire -> je la vois comme une carte qui est là juste pour dire: on a un produit qui arrive au niveau de la GTX sans overclock (le hic est que c'est une carte qui est poussée dans ses derniers retranchements -donc officiellement overclockée sur le gpu- alors qu'une GTX ça s'overclock aussi avec une marge confortable et au final elle remettra le meme écart en terme de perfs, mais forcément les gens diront qu'il faut une GTX "o/c" ... tu comprends la subtilité ?  :pt1cable:  :D  )


Message édité par mac fly le 07-06-2007 à 02:20:21
n°5574801
AbelJemka
Posté le 07-06-2007 à 02:20:04  profilanswer
 

Je penses que tu sous estimes aussi bien la marge que les ventes de la carte.

n°5574802
mac fly
Posté le 07-06-2007 à 02:22:38  profilanswer
 

Je ne pense pas, je constate.
Si j'ai un produit qui est globalement un peu au dessus de la GTS 640mo, je le sors direct à un prix mini afin que personne n'hésite à prendre ma carte au lieu de la GTS 640mo  :hello:  , c'est de la logique
le souci aujourd'hui c'est que la différence n'est pas assez franche, et c'est pourquoi la GTS 640mo n'est pas inquiétée -> certains choisissent encore la GTS 640mo au lieu de la 2900xt... le voilà le résultat  :sweat:


Message édité par mac fly le 07-06-2007 à 02:24:20
n°5574809
barbybulle
GIGABYTE OC Team
Posté le 07-06-2007 à 02:32:01  profilanswer
 

Tout a fais d'accord avec toi mac fly ;) , depuis le debut du topic :d


---------------
Gigabyte France  
n°5574822
mac fly
Posté le 07-06-2007 à 02:51:45  profilanswer
 

:)  
En fait je suis pas pro ati ni pro nvidia, et c'est justement rien que par l'observation que je me rend compte que je ne me suis JAMAIS planté sur tout ce qui concernait le R600
Je me suis fait promener quand je disais il y a qques mois que le R600 n'inquièterait pas la GTX et j'ai clairement expliqué le pourquoi, mais bcp ne voulaient pas me croire "aux vues des specs du R600", c'était soit disant impossible...
il y a meme bcp + loin je disais que Ati avait probablement été surpris par les perfs du G80 dès sa sortie...
 
Et là pour moi il est clair que le but de cette 2900xt 1go (purement marketing) c'est de dire qu'aux fréquences officielles leur haut de gamme joue dans la meme cour que les très grosses cartes Nvidia
La chose qu'il faut se dire c'est que la GTX s'o/c aussi, et Nvidia pourrait très bien jouer de la meme manière et décider de passer officiellement la GTX @~620mhz gpu (car elles tiennent quasiment toutes cette fréquence), et l'ultra @648mhz gpu (je ne comprends pas pquoi ils ont laissé une marge d'o/c aussi grosse sur les GTS, GTX et ULTRA -> quand je pense que ma GTS se prend en aircooling du 685mhz rock stable au lieu de ses 500mhz d'origine c'est hallucinant  :pt1cable: )  et on retrouverait la meme hiérarchie  ;) .Ca ne change pas le fait que la GTX/ULTRA reste dans l'absolu actuellement la référence.

n°5574826
Profil sup​primé
Posté le 07-06-2007 à 03:04:26  answer
 

mouaip, si il y avait pas eu le coups de marketing ose de nvidia de lancer une ultra avec un bios qui donne 0.05v de plus au gpu pour tenir ces freqs; ati n aurait pas propose son caisson a 1go de ddr4 pas bien utile pour les jeux du moment, faut voir pour ceux qui sortiron.
 
une x2900xt s oc aussi, le blem c est qu il faut mini du water donc bon ca fait chier il est vrai.
appart ca elle tient de bonnes freqs et a une bonne puissance qui peut etre comparable a une gtx oc sous water.
 
je te donne raison sur le fait que les cartes nvidia sont plus faciles a gerer pour une tres bonne puissance., mais pas sur le fait de l oc car il est normal qu une carte(puce) digne de ce nom fasse son devoir et les x1900xt en sont un parfait exemple.(modif voltages et  hop!!)
 
la x2900xt un peut moins sur ce cote la.


Message édité par Profil supprimé le 07-06-2007 à 03:04:59
n°5574939
MacIntoc
tu lis une phrase formidable.
Posté le 07-06-2007 à 09:27:29  profilanswer
 

J'arrive pas comprendre que vous ne voyez pas qu'avec 200% de TMU en moins, 100% d'unité de filtrage en moins et 50% de ROP en moins (donc 100% de ROP dédié au filtrage en moins vu que y a que la moitié des ROP du R600 qui peuvent faire du filtrage), elle se situe quand même ~15%-20% derrière une GTX avec filtre. C'est quand même une sacrè performance relative, non ?
Donc l'archi du R600 explose clairement celle du G80. Elle est juste mal balancé.

 

dave>Euh... un R600 passe allègrement le GHz avec un refroidissement convenable. Si y a un truc qu'on peut pas reprocher au R600, c'est qu'il s'oc très bien.

Message cité 1 fois
Message édité par MacIntoc le 07-06-2007 à 09:53:39
n°5574958
rci
Posté le 07-06-2007 à 09:42:16  profilanswer
 

MacIntoc a écrit :

Bon, alors, l'archi du R600 explose clairement celle du G80. Elle est juste mal balancé.
J'arrive pas comprendre que vous ne voyez pas qu'avec 200% de TMU en moins, 100% d'unité de filtrage en moins et 50% de ROP en moins (donc 100% de ROP dédié au filtrage en moins vu que y a que la moitié des ROP du R600 qui peuvent faire du filtrage), elle se situe quand même ~15%-20% derrière une GTX avec filtre. C'est quand même une sacrè performance relative, non ?
 
dave>Euh... un R600 passe allègrement le GHz avec un refroidissement convenable. Si y a un truc qu'on peut pas reprocher au R600, c'est qu'il s'oc très bien.


 
ah oue super une archi qui explose le g80 est qui fait moins de fps  et avec une qualité de filtrages moindre... on aura tout vu   :pt1cable:

n°5574974
AbelJemka
Posté le 07-06-2007 à 09:51:12  profilanswer
 

rci a écrit :

ah oue super une archi qui explose le g80 est qui fait moins de fps  et avec une qualité de filtrages moindre... on aura tout vu   :pt1cable:


Aprés c'est nous qui ressassons les vieux arguments bidons...

n°5574977
MacIntoc
tu lis une phrase formidable.
Posté le 07-06-2007 à 09:53:14  profilanswer
 

rci a écrit :

ah oue super une archi qui explose le g80 est qui fait moins de fps  et avec une qualité de filtrages moindre... on aura tout vu   :pt1cable:


Si tu ne t'étais pas arrêté au premier ".", tu aurais pu comprendre pourquoi j'ai dis ça. Je vais éditer mon post, ça devrait t'aider a lire le tout :)


Message édité par MacIntoc le 07-06-2007 à 09:54:58
n°5575058
mac fly
Posté le 07-06-2007 à 10:54:36  profilanswer
 

Le problème est que tout le monde s'en fiche de ses specs sur papier, on juge une carte par ses résultats, et le fait est qu'ils ne mettent pas en danger la GTX.Le reste désolé mais c'est du blabla...
Alors oui, ils auraient pu faire mieux, maintenant je le répète, tu n'es pas plus fort que les ingés Amd pour te permettre de dire "qu'il aurait simplement suffit de/qu'il suffit de/il y a juste un petit problème"  :pt1cable: t'inquiète pas qu'ils le savaient bien avant toi, seulement si ça avait été aussi simple de lui rajouter ce qu'il lui manquait avec un cout final qui reste exploitable, Amd l'aurait evidemment fait ! .
Le G80 aurait pu etre encore + puissant si à l'époque Nvidia avait pu le faire -> ils le feront sur le G92 car "à l'époque" ça n'était pas envisageable de viser encore plus haut pour différentes raisons que seuls les ingés connaissent (difficultés techniques ? , cout ? , process pas suffisament fiable pour une telle complexité de la puce ? etc...)

Message cité 1 fois
Message édité par mac fly le 07-06-2007 à 11:08:01
n°5575107
MacIntoc
tu lis une phrase formidable.
Posté le 07-06-2007 à 11:24:02  profilanswer
 

mac fly>Même les ingés peuvent faire des erreurs d'appréciations, surtout sur une première génération de puce.
Maintenant qu'on sait qu'elles sont ces erreurs d'appréciations, il me semble que le taff des ingés d'ATI soit de corriger ces erreurs, tu ne crois pas ?
Ensuite, les specs n'intéressent effectivement pas l'utilisateur lambda qui ne regarde que les perfs de la carte. Sauf que, mis en rapport avec ces fameuses perfs, elles te permettent de déterminer si l'architecture a une chance de s'améliorer drastiquement avec le temps et s'il ne vaut pas mieux attendre un peu plus longtemps.

n°5575185
mac fly
Posté le 07-06-2007 à 11:58:17  profilanswer
 

MacIntoc a écrit :

mac fly>Même les ingés peuvent faire des erreurs d'appréciations, surtout sur une première génération de puce.
Maintenant qu'on sait qu'elles sont ces erreurs d'appréciations, il me semble que le taff des ingés d'ATI soit de corriger ces erreurs, tu ne crois pas ?
Ensuite, les specs n'intéressent effectivement pas l'utilisateur lambda qui ne regarde que les perfs de la carte. Sauf que, mis en rapport avec ces fameuses perfs, elles te permettent de déterminer si l'architecture a une chance de s'améliorer drastiquement avec le temps et s'il ne vaut pas mieux attendre un peu plus longtemps.


Sauf que là c'est tellement gros que c'est pas possible -> ça voudrait dire que les ingés Amd sont des noobs  :pt1cable: ... perso j'en doute.Si le R600 est ce qu'il est aujourd'hui c'est qu'ils se sont heurtés à des grosses difficultés.
Et je me répète, c'est surement pas toi ni moi en 2 ou trois mots en disant qu'il manque clairement ceci ou cela qui pouvons prétendre avoir la solution techniquement réalisable tout en étant rentable pour corriger le pb de perfs du R600  :lol:
Le R600 était fonctionnel depuis Janvier.C'est prendre les ingé Amd pour des abrutis que d'affirmer ce que tu dis... tu crois qu'ils n'ont pas remarqué dès le départ les lacunes du R600 peut etre ? et que c'est toi qui va leur apporter la solution en disant, simplement que c'est normal d'avoir ce résultat et que pour le corriger il suffit betement de rajouter  en claquant des doigt tel ou tel éléments ?  :whistle:
 
Les specs ne renseignent en rien sur l'efficacité d'une archi.D'après les specs d'un produit (d'un cpu etc... ) personne n'a jamais pu affirmer que c'était cette archi qui serait la plus interessante/performante avec le temps ... (le P4B en son temps n'avait pas de concurrence et Intel comptait le faire evoluer bcp + loin, mais voilà, ça coutait trop cher, les process de fabriquation n'ont pas permi d'arriver là il il était sensé aller, et ils ont été obligé de tout revoir à la baisse pour finalement abandonner cette archi qui s'est avéré une voie sans issue )

Message cité 2 fois
Message édité par mac fly le 07-06-2007 à 12:25:26
n°5575342
AbelJemka
Posté le 07-06-2007 à 13:00:45  profilanswer
 

mac fly a écrit :

Le problème est que tout le monde s'en fiche de ses specs sur papier, on juge une carte par ses résultats, et le fait est qu'ils ne mettent pas en danger la GTX.Le reste désolé mais c'est du blabla...


Comme tu dis on juges une carte sur ces résultats, comme tu dis aussi elle ne met pas en danger la GTX. Mais le reste c'est qu'elle n'est pas au prix de la GTX pour ces deux raisons. AMD n'a pas essayer de nous faire avaler une couleuvre, son prix est en rapport avec ses performances point à la ligne.

n°5575374
sasuke87
Posté le 07-06-2007 à 13:15:08  profilanswer
 

mac fly a écrit :

Sauf que là c'est tellement gros que c'est pas possible -> ça voudrait dire que les ingés Amd sont des noobs  :pt1cable: ... perso j'en doute.Si le R600 est ce qu'il est aujourd'hui c'est qu'ils se sont heurtés à des grosses difficultés.
Et je me répète, c'est surement pas toi ni moi en 2 ou trois mots en disant qu'il manque clairement ceci ou cela qui pouvons prétendre avoir la solution techniquement réalisable tout en étant rentable pour corriger le pb de perfs du R600  :lol:
Le R600 était fonctionnel depuis Janvier.C'est prendre les ingé Amd pour des abrutis que d'affirmer ce que tu dis... tu crois qu'ils n'ont pas remarqué dès le départ les lacunes du R600 peut etre ? et que c'est toi qui va leur apporter la solution en disant, simplement que c'est normal d'avoir ce résultat et que pour le corriger il suffit betement de rajouter  en claquant des doigt tel ou tel éléments ?  :whistle:
 
Les specs ne renseignent en rien sur l'efficacité d'une archi.D'après les specs d'un produit (d'un cpu etc... ) personne n'a jamais pu affirmer que c'était cette archi qui serait la plus interessante/performante avec le temps ... (le P4B en son temps n'avait pas de concurrence et Intel comptait le faire evoluer bcp + loin, mais voilà, ça coutait trop cher, les process de fabriquation n'ont pas permi d'arriver là il il était sensé aller, et ils ont été obligé de tout revoir à la baisse pour finalement abandonner cette archi qui s'est avéré une voie sans issue )


 
mais ce qu est intéressant c'est que malgré toutes ses lacunes d'archi (qui font vraiment amateur  :D ), elle arrive à accrocher une GTS dans la majorité des tests.

n°5575380
mac fly
Posté le 07-06-2007 à 13:17:01  profilanswer
 

AbelJemka a écrit :

Comme tu dis on juges une carte sur ces résultats, comme tu dis aussi elle ne met pas en danger la GTX. Mais le reste c'est qu'elle n'est pas au prix de la GTX pour ces deux raisons. AMD n'a pas essayer de nous faire avaler une couleuvre, son prix est en rapport avec ses performances point à la ligne.


Ben oui -je comprends pas le sens de ton intervention- là tu ne fais que me paraphraser  :heink:  :whistle:  car c'est toujours ce que j'ai dit...

n°5575390
sasuke87
Posté le 07-06-2007 à 13:22:54  profilanswer
 

Le seul hic, c'est que la GTS reste largment valable, ATI n'a pas réussi à la faire oublier...

n°5575402
AbelJemka
Posté le 07-06-2007 à 13:25:21  profilanswer
 

Pourquoi alors continuer ce débat sans fin si tout le monde sembles d'accord?


Message édité par AbelJemka le 07-06-2007 à 13:26:06
n°5575407
barbybulle
GIGABYTE OC Team
Posté le 07-06-2007 à 13:28:37  profilanswer
 

toujours daccord :lol: avec toi mac fly  
 
 
:ange:


---------------
Gigabyte France  
n°5575420
Voodoonice
Posté le 07-06-2007 à 13:35:45  profilanswer
 

Au départ la  HD2900XT ne devais pas être la rivale direct de la GTX ?  :??:

n°5575426
sasuke87
Posté le 07-06-2007 à 13:40:54  profilanswer
 

Voodoonice a écrit :

Au départ la  HD2900XT ne devais pas être la rivale direct de la GTX ?  :??:


 
selon fudzilla peut être  :D

n°5575431
mac fly
Posté le 07-06-2007 à 13:43:08  profilanswer
 

Moi je suis pas d'accord juste sur une chose -> quand je vois les remarques disant que les ingés Amd ont fait de grosses boulettes et que c'était prévisible...
Ils ont fait ce qu'ils ont pu avec la technologie actuelle et le budget qui leur était mis à disposition.Le résultat est très honnète mais ne fait pas oublier la GTS 640mo...
Pour monter le R600 en puissance, il parait clair qu'il faudrait encore qques modifs qui nous semblent logiques, mais cela ne signifie pas pour autant que c'est techniquement aisé de les faire pour un cout "raisonnable" (parce que si c'était le cas le R600 aurait été comme cela a sa sortie définitive, les problèmes ça fait des mois qu'ils les ont constaté les ingés Amd: le retard du R600 c'était pas pour le "fun" .C'est pas nous qui allons leur donner des leçons sur "comment ils auraient du encore optimiser le R600  :heink:  :lol: )  ;)  
 
Pour en revenir à la 2900xt 1gb, c'est une carte juste pour dire que leur haut de gamme se met au niveau du haut de gamme Nvidia (ils n'avaient pas besoin de ça tout comme Nvidia n'avait pas besoin du 8800ultra, le réel besoin est de se concentrer pour corriger les points faibles du R600 et pas de sortir dans la précipitation un R600 poussé au max).On sait qu'en pratique le G80 très haut de gamme a quand meme l'avantage au final car il faut comparer cette 2900xt 1gb aux version o/c d'usine Nvidia à refroidissement à air classique :jap: .Et on retrouve alors la meme hiérarchie avec le très haut de gamme Nvidia un cran devant.

n°5575434
sapphire a​depte xd
Online : bisondacier
Posté le 07-06-2007 à 13:44:13  profilanswer
 

 
 
De toute facon je ne vois pas comment on ne pourrait etre d'accord :jap:
 
Mais le probleme est toujours le meme pour le futur ==> wait & see car si les ingés de amd corrigent ces "bugs" ou autrement appellés "défauts d'architecture " sa pourrait inverser la donne. M'enfin faut pas rever non plus, nvidia , tout comme ati, est déja depuis longtemps sur une autre puce ;)

n°5575465
mac fly
Posté le 07-06-2007 à 13:56:17  profilanswer
 

:jap:  
Nvidia fait évoluer son G80 en corrigeant ses faiblesses (le G92) tout comme Ati doit sans doute bosser sur les corrections du R600.
La différence est que Nvidia a eu largement le temps de tater le terrain avec son G80 sortit bcp + tot et de se faire sa réputation.Il partent avec un avantage certain dès le départ.On peut s'attendre à ce que le G92 en remette une couche -> c'est aussi la raison pour laquelle il est parfaitement irrationnel d'affirmer que l'archi R600 est plus prometteuse que celle du G80... personne n'en sait rien et c'est pas en regardant les specs qu'on peut en déduire quoi que ce soit  ;)

n°5575467
sapphire a​depte xd
Online : bisondacier
Posté le 07-06-2007 à 13:58:10  profilanswer
 

 
exact ;)
 


Message édité par sapphire adepte xd le 07-06-2007 à 13:58:27
n°5575480
MacIntoc
tu lis une phrase formidable.
Posté le 07-06-2007 à 14:02:28  profilanswer
 

mac fly a écrit :

Sauf que là c'est tellement gros que c'est pas possible -> ça voudrait dire que les ingés Amd sont des noobs  :pt1cable: ... perso j'en doute.Si le R600 est ce qu'il est aujourd'hui c'est qu'ils se sont heurtés à des grosses difficultés.
Et je me répète, c'est surement pas toi ni moi en 2 ou trois mots en disant qu'il manque clairement ceci ou cela qui pouvons prétendre avoir la solution techniquement réalisable tout en étant rentable pour corriger le pb de perfs du R600  :lol:

Le R600 était fonctionnel depuis Janvier.C'est prendre les ingé Amd pour des abrutis que d'affirmer ce que tu dis... tu crois qu'ils n'ont pas remarqué dès le départ les lacunes du R600 peut etre ? et que c'est toi qui va leur apporter la solution en disant, simplement que c'est normal d'avoir ce résultat et que pour le corriger il suffit betement de rajouter  en claquant des doigt tel ou tel éléments ?  :whistle:


Non, qu'ils se sont planté. C'est pas grave, ça arrive à tout le monde et ça se corrige. Ca veut pas dire pour autant que ce sont des abruties finis. Tu trouve ça moins crédible que de sortir une carte avec un ROP buggé ?
ATI a trop boosté ses shader, nVidia a trop boosté son texturing. J'ai du mal a imaginé qu'aucun des deux ne soit capable de sortir une puce un peu moins déséquilibré.
Ah bah faudrait savoir... je croyais qu'il bossaient leur driver...
Oh... je penses qu'ils s'en sont rendus compte. j'attends qu'ils corrigent leur erreur. Pour l'instant, on a une carte useless de plus sur le marché en attendant que le 65nm murisse.

 
Citation :

Les specs ne renseignent en rien sur l'efficacité d'une archi.D'après les specs d'un produit (d'un cpu etc... ) personne n'a jamais pu affirmer que c'était cette archi qui serait la plus interessante/performante avec le temps ... (le P4B en son temps n'avait pas de concurrence et Intel comptait le faire evoluer bcp + loin, mais voilà, ça coutait trop cher, les process de fabriquation n'ont pas permi d'arriver là il il était sensé aller, et ils ont été obligé de tout revoir à la baisse pour finalement abandonner cette archi qui s'est avéré une voie sans issue )


Comprend mon précédent post et tu comprendra que tu es complètement HS.

 
Citation :

Moi je suis pas d'accord juste sur une chose -> quand je vois les remarques disant que les ingés Amd ont fait de grosses boulettes et que c'était prévisible...


Jamais dit que c'était prévisible. J'ai dit qu'au lieu de corriger leur erreur en constatant le comportement du R600 vis-à-vis du G80, ils continuaient dans la même voie.

 
Citation :

Nvidia fait évoluer son G80 en corrigeant ses faiblesses (le G92) tout comme Ati doit sans doute bosser sur les corrections du R600.
La différence est que Nvidia a eu largement le temps de tater le terrain avec son G80 sortit bcp + tot et de se faire sa réputation.Il partent avec un avantage certain dès le départ.On peut s'attendre à ce que le G92 en remette une couche -> c'est aussi la raison pour laquelle il est parfaitement irrationnel d'affirmer que l'archi R600 est plus prometteuse que celle du G80... personne n'en sait rien et c'est pas en regardant les specs qu'on peut en déduire quoi que ce soit  ;)


Tu te serait penché un peu plus sur les archis, tu aurait vu que si...

Message cité 1 fois
Message édité par MacIntoc le 07-06-2007 à 14:13:47
n°5575486
vlad drac
Posté le 07-06-2007 à 14:04:01  profilanswer
 

mac fly a écrit :

:jap:  
Nvidia fait évoluer son G80 en corrigeant ses faiblesses (le G92) tout comme Ati doit sans doute bosser sur les corrections du R600.
La différence est que Nvidia a eu largement le temps de tater le terrain avec son G80 sortit bcp + tot et de se faire sa réputation.Il partent avec un avantage certain dès le départ.On peut s'attendre à ce que le G92 en remette une couche -> c'est aussi la raison pour laquelle il est parfaitement irrationnel d'affirmer que l'archi R600 est plus prometteuse que celle du G80... personne n'en sait rien et c'est pas en regardant les specs qu'on peut en déduire quoi que ce soit  ;)


 
Laissant sur le carreau l'actuelle HD2900XT .. pour moi cette dernière n'a tout simplement été qu'un coup d'essai, sortie prématuremment car tellement retardée et trop attendue .. La gamme n'était tout simplement pas prête (c'est d'ailleurs pour ça que le MDG a lui, été repoussé à fin juin) mais AMD voulait sortir à tout prix une carte, aussi instable soit-elle .. ils l'ont bichonné de drivers à sa sortie pour qu'elle étincelle sur quelques jeux, mais je crains qu'il ne la laisse finallement couler .. au détriment de sa p'tite soeur (HD2950XT ?).


Message édité par vlad drac le 07-06-2007 à 14:11:10
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5

Aller à :
Ajouter une réponse
 

Sujets relatifs
MAJ PC ?? Carte Graph + RAMRecherche MAJ du bios de ma carte mère
[topic unique]ATI Radeon HD2900XT (512 Mo et 1 Go)HD2900xt, 8800GT(?) ou attendre la HD2950 annoncée pour aout/sept ?
MàJ PC - Photoshop et PainterMAJ du BiOS impossible
[MàJ] CG nvidia>>northbridge nvidia?[Guide d'achat PC] MAJ 15/02/2022 Pénurie Cartes Graphiques
Nouvelle config, budget serré! [MAJ: URGENT]1Gb Dual Channel ou 2Gb Single Channel ?
Plus de sujets relatifs à : HD2900XT 1GB DDR4 MAJ


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR