Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1425 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8
Auteur Sujet :

Vaut-il mieux une HD2900xt ou une 8800GTS 640 ?

n°5878146
god is dea​d
Demain, j'arrête de poster.
Posté le 06-09-2007 à 15:29:56  profilanswer
 

Reprise du message précédent :
C'est facile en fait, on choisit son panel de jeux, on en vire parce que "trop vieux", on garde Q4, qui lui est aussi vieux que les autres, mais c'est pas grave parce que le R600 domine et on obtient un super test objectif. Le mieux je crois, c'est de ne tester qu'avec des jeux dérivés de la XBox 360.
 
Il manque que des jeux en faveur du R600 en gros et ceux en faveur du G80 sont nécessairement "trop vieux", c'est ça ? :d
Vu les "bouses" actuelles, je préfère encore certains vieux jeux, soit dit en passant.

Message cité 1 fois
Message édité par god is dead le 06-09-2007 à 15:31:20

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 06-09-2007 à 15:29:56  profilanswer
 

n°5878155
Gigathlon
Quad-neurones natif
Posté le 06-09-2007 à 15:34:41  profilanswer
 

god is dead a écrit :

C'est facile en fait, on choisit son panel de jeux, on en vire parce que "trop vieux", on garde Q4, qui lui est aussi vieux que les autres, mais c'est pas grave parce que le R600 domine et on obtient un super test objectif. Le mieux je crois, c'est de ne tester qu'avec des jeux dérivés de la XBox 360.
 
Il manque que des jeux en faveur du R600 en gros et ceux en faveur du G80 sont nécessairement "trop vieux", c'est ça ? :d


J'ai ajouté Quake 4 pour équilibrer Unreal Engine et Quake Engine en fait, vu que R6V est similaire à Bioshock... :o  
 
Ceci dit je suis parfaitement d'accord avec toi, un bon vieil Unreal n'est pas forcément moins plaisant ni même moins beau que FEAR ou Quake 4, pourtant il tournera à fond en 1920x1200 avec AA sur une carte mainstream... [:yamusha]  
 
Pour X3, faut dire qu'il a un peu 1 an 1/2 passé et que les cartes se tiennent dans une fourchette qui ne change pas grand chose à l'ordre, un peu pareil pour SupCom que tu places pourtant derrière malgré des perfs qui changent du tout au tout selon les tests et... qui est déjà jouable en 1920x1200 sur un R580.


Message édité par Gigathlon le 06-09-2007 à 15:38:56
n°5878270
Fssabbagh
Satsui no Hado
Posté le 06-09-2007 à 16:32:08  profilanswer
 

Citation :

et le bruit est un argument bidon depuis quelque temp...
 
 
il suffit de regler la vitesse du ventilo avec ati tool..et nickel les db!


 
parce que t'es  obligé de mettre le ventilo à fond sinon tu prends un extincteur et t'appelles les pompiers. http://www.matbe.com/actualites/16 [...] d-2900-xt/


---------------
Messatsu !
n°5878298
Cizia
Posté le 06-09-2007 à 16:47:20  profilanswer
 

c'est un utilisation extrem...

 

tout les gars du topic x2900 ayant cette carte et utilisant ati tool pour baisser la vitesse du ventilo pour baisser le bruit dise que ca marche comme un charme...avec des temp loin d'etre extrem...

 

je pense que l'on va etre obliger de s'entretuer pour en finir avec ce topic,et le dernier survivant dira  quel marque a acheter....
    :lol:  :D  :lol:  :D

 

moi comme arme,je choisis une hallebarde!...rouge sang,bien sur... :D


Message édité par Cizia le 06-09-2007 à 16:51:31

---------------

n°5878310
moxou
Posté le 06-09-2007 à 16:53:01  profilanswer
 

Bah ... chacune a ses avantages et ses inconvénients. A chaque post de ce genre, on retrouve les mêmes arguments pour l'une et l'autre, et au final, personne n'est d'accord.
 
Selon moi la plus intéressante c'est la GF8800 GTS ... 320. Les performances tiennent bien la route à un prix tout de même plus raisonnable. Une très bonne carte pour jouer dans de très bonne condition aux jeux actuels tout en en gardant sous le coude pour rechanger d'ici 1 an / 1 an et demi ... Sur un 19" wide c'est largement suffisant.
 
La vie de gamer est difficile décidemment.

n°5878428
MacIntoc
tu lis une phrase formidable.
Posté le 06-09-2007 à 17:49:36  profilanswer
 

God is dead>Le R600 est soumis à ce que l'on pourrait appeler le texture limited, d'où les différences de performance entre 2 jeux.

 

De plus, le panel de jeux est effectivement important.
Si on regarde Stalker, c'est le seul jeu au monde (à ma connaissance) à utiliser un moteur 3D à rendu différé (d'où l'absence d'AA). De plus, on a aucune idée de son degrés d'optimisation étant donnée qu'on a aucun autre moteur similaire avec lequel comparer ses performances brut. Donc assez peu significatif si on ne joue pas spécifiquement à ce jeu. Et encore, on reste à plus de 60fps de moyenne en 1920@max.
En revanche, Bioshock et MoH:AB sont basé sur l'UE3 qui équipe également R6V et Roboblitz (d'autres qui sont déjà sortie sur PC ?) et qui équipera une bonne 20-aines d'autres jeux.
Idem pour Prey, qui est basé sur un moteur faisant tourner 3 jeux (Doom 3, Quake 4 et Prey) et qui équipera sous peu un 4ème (Enemy Territory). Hors il se trouve, comme par hasard, que ce sont 2 des moteurs qui tournent le mieux. ATI a du particulièrement s'attarder particulièrement sur ces moteurs.
Pareils pour CoJ, le Chrome Engine équipera plusieurs jeux (de moindre importance, certes) et est l'un des moteur ou le R600 s'en sort le mieux.
Concernant World In Conflict, ce jeu n'est pas encore sortie, donc ATI n'a pas pris la peine de corriger les drivers.
Et comme le fait remarquer Gigathlon, SupCom est trop dépendant du CPU pour renvoyer des valeurs fiables (c'est pas pour rien que HFR l'a éjecté).
X3 est un peu ancien, certes, mais je vois pas pourquoi il n'aurait pas sa place dans le test.
Au final, seul X3 ne mérite pas vraiment d'être pondérer dans la moyenne globale.

 

En revanche, un jeux qui manque cruellement et qui aurait beaucoup compté dans ce comparatif, c'est un jeu basé sur le Source Engine (qui vient également, comme par hasard, d'être particulièrement bichonné par ATI dans les 7.8).


Message édité par MacIntoc le 06-09-2007 à 17:50:12
n°5878469
god is dea​d
Demain, j'arrête de poster.
Posté le 06-09-2007 à 18:10:41  profilanswer
 

Un peu orienté comme discours. De plus ta remarque sur les 60fps de moyenne vaut pour les jeux genre Prey. Idem pour les drivers, là où le R600 a une "bonne" marge, le G80 lui n'en a aucune bien sûr.
 
L'intérêt d'un test de cg c'est justement de montrer les perf sous différents moteurs, et pas seulement sur ceux les plus usités. Parce qu'il existe des tas de jeux autres que les "hits" du moment, et autres que les FPS.
 
Alors effectivement, on pourrait prendre tous les jeux à base d'UE3, le R600 étant un Xenos DX10, on connait le résultat d'avance et on pourrait dire que la HD 2900 XT est supérieure à la 8800 GTX. Mais ça n'aurait aucune objectivé car on occulterait alors tous les autres jeux.
 
D'où l'intérêt d'un panel de jeu équilibré, histoire d'avoir une vue objective des perfs.
 
Personnellement je ne joue à aucun jeu à base d'UE3, que je trouve généralement graphiquement inégaux, tout en proposant un framerate lui aussi inégal. Heureseument donc qu'il existe d'autres jeux testés :p

Message cité 1 fois
Message édité par god is dead le 06-09-2007 à 18:15:37

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5878577
barbybulle
GIGABYTE OC Team
Posté le 06-09-2007 à 19:09:22  profilanswer
 

god is dead a écrit :

Un peu orienté comme discours. De plus ta remarque sur les 60fps de moyenne vaut pour les jeux genre Prey. Idem pour les drivers, là où le R600 a une "bonne" marge, le G80 lui n'en a aucune bien sûr.
 
L'intérêt d'un test de cg c'est justement de montrer les perf sous différents moteurs, et pas seulement sur ceux les plus usités. Parce qu'il existe des tas de jeux autres que les "hits" du moment, et autres que les FPS.
 
Alors effectivement, on pourrait prendre tous les jeux à base d'UE3, le R600 étant un Xenos DX10, on connait le résultat d'avance et on pourrait dire que la HD 2900 XT est supérieure à la 8800 GTX. Mais ça n'aurait aucune objectivé car on occulterait alors tous les autres jeux.
 
D'où l'intérêt d'un panel de jeu équilibré, histoire d'avoir une vue objective des perfs.
 
Personnellement je ne joue à aucun jeu à base d'UE3, que je trouve généralement graphiquement inégaux, tout en proposant un framerate lui aussi inégal. Heureseument donc qu'il existe d'autres jeux testés :p


 
 
 
En gros , +1  ;)


---------------
Gigabyte France  
n°5878590
Freak_On_A​_Leash
Clockeur abruti
Posté le 06-09-2007 à 19:13:26  profilanswer
 

sennenmout a écrit :


 
 
Oui oui bien sur... :pt1cable:  
 
Pourquoi ne se vend t-il pas que des 2900XT en ce cas?
Si elle atomise une GTS et depasse une GTX..
A moins de 400 euros ce serait l'affaire du moment sans discussion possible..
 
Bah c'est pas le cas et elle reste tjrs le 3eme choix..
 
Sans doute a cause des pilotes calamiteux a changer a chaque jeux,des probs de plantages aleatoires et incompatibilités diverses.
Ce qui fait qu'au quotidien certaines personnes(qui ont pas forcement envie de mettre les mains dans le cambouis en permanence) preferent opter pour la "securité" Nvidia..
 
Enfin je dis ça..alors que j'ai une 2900XT qui arrive demain.. :whistle:  
 
 
Eeum, elle est devant la gts dans quasiement tout, et elle est devant la ultra dans quelques jeux... ( J'ai pas dit tout les jeux en? .... j'ai pas dit qu'elle était meilleure.. Nuance )  
Mais je me demande encore pourquoi je suis allé la commander.J'en ai fait des cauchemars cette nuit..arf!
Bah..j'avais pas le choix,j'avais un "avoir" a utiliser sur un site et y avait aucune 8800 en stock depuis + d'une semaine..Alors j'ai craqué.
 
Je me tate deja a la mettre en vente avt meme qu'elle arrive..Avec le WB EK qui va dessus..
 
Je suis "pro" rien du tout..Et j'aimerai tellement que ça se passe bien avec elle..mais j'arrive pas a me faire a l'idée de ne pas galerer avec la Canadienne..


 
 
 
Je n'ai jamais dit qu'elle était tout le temps meilleure que la Gtx, mais que sous quelques jeux ( Pas tous en?... ) elle la surpasse... Et oui, elle est supérieure a la gts dans quasiement tout les jeux.... L'antialias la tue..


Message édité par Freak_On_A_Leash le 06-09-2007 à 19:23:04

---------------
http://www.denis-talbot.com/compon [...] ic,26766.0 Venez poster vos Résultats! SuperPi1 Mg!
n°5879556
Gigathlon
Quad-neurones natif
Posté le 07-09-2007 à 11:54:10  profilanswer
 

Fssabbagh a écrit :

Citation :

et le bruit est un argument bidon depuis quelque temp...
 
 
il suffit de regler la vitesse du ventilo avec ati tool..et nickel les db!


 
parce que t'es  obligé de mettre le ventilo à fond sinon tu prends un extincteur et t'appelles les pompiers. http://www.matbe.com/actualites/16 [...] d-2900-xt/


D'origine, le ventilo ne dépasse pas les 41% contrairement à une certaine 8800, à fond le GPU est tenu à 60°C à fréquence d'origine... :whistle:

mood
Publicité
Posté le 07-09-2007 à 11:54:10  profilanswer
 

n°5879830
Cizia
Posté le 07-09-2007 à 14:58:04  profilanswer
 

..la x2900xt vaincrat! :D


Message édité par Cizia le 07-09-2007 à 14:58:12

---------------

n°5879990
Fssabbagh
Satsui no Hado
Posté le 07-09-2007 à 16:26:42  profilanswer
 

Citation :

le ventilo ne dépasse pas les 41% contrairement à une certaine 8800,


 
41% de quelle vitesse aussi ? Pff il doit être à 4000trs celui de la 2900 à 100% :pfff: Celui de la 8800 est à 2700trs à fond mon ami ! Je te laisse faire les calculs. Si je dirais les choses de façon brut je dirais que les 50% de la ATI correspondent aux 100% de la 8800.
 
Sérieusement faut que ati revoie son ventirad. Je trouve pas normal qu'on soit obligé de mettre un kilo de cuivre sur une carte graphique pour la maintenir  à un niveau de fiabilité correct. Après pour ce qui est des performances oui c'est très impressionnant. Maintenant en comparant le sli et le CrossFire je dis que le sli est bien plus avantageux. Pour ce qui est du Quad sli les 3/4 des gens n'en voient pas l'utilité. Je ne suis pas de ces gens là au contraire. La bande passante du port PCI Express limite très fortement l'intérêt du quad sli... sauf que le PCI Express 2 arrive s'il n'est pas déjà prêt. Autant  une carte graphique ati devance une gtx dans les 3/4 des jeux, autant ati a un gros travail à faire pour son gpu qui chauffe démesurément. Un multi gpu n'est pas viable à moins d'opter pour un watercooling. De plus il ne faut pas oublier que le rad de la 8800 est en alu, celui de la 2900 est en cuivre !
 
regardes :http://www.matbe.com/images/biblio/art_ati-r600-radeon-hd2900xt/000000056971.png
 
les résulats sont très discutable quand à savoir qui est la plus chaude entre la GTX et la 2900 mais la 2900 mais est nettement plus bruyante :
 
http://www.matbe.com/images/biblio/art_ati-r600-radeon-hd2900xt/000000056973.png
 
on est franchement pas loin d'un 9700 led à fond :o  
enfin je cite matbe :  "la carte avait tendance à passer en mode 3D y compris en idle au bout de 30 minutes et alternait ensuite les passages 2D/3D. Selon ATI, il s’agit d’un problème qui sera réglé par une mise à jour des drivers et qui seraient en rapport avec les fréquences en 2D et en 3D. Nous n’en savons pas plus pour l’instant. En mode 3D, le bruit de son ventilateur est important et s’apparente à celui d’un sèche-cheveux. Bref, c’est bruyant et il s’agit d’ailleurs de la valeur la plus élevée mesurée En mode « 2D », le ventilateur de la HD 2900 XT est plus bruyant qu’une 8800 GTS en action, et à peine moins qu’une GeForce 8800 GTX. En mode 3D, même la bruyante X1900 XT est battue par la HD 2900 XT.
 
Tout ceci s’explique par la consommation des cartes : en pleine charge, la HD 2900 XT consomme 30 watts de plus que la 8800 GTX. La différence avec la 8800 GTS est de plus de 96 watts : soit à peu près autant que la consommation approximative de notre processeur haut de gamme (le Core 2 Duo X6800). Comme me l’expliquait si bien mon professeur de physique chimie au lycée, rien ne se perd, rien ne se crée : tout se transforme. Il faut bel et bien que la Radeon HD 2900 XT arrive à évacuer ce surplus de consommation. Les 900 grammes de cuivre du radiateur surplombant la carte y arrivent, certes, mais au prix de nuisances sonores élevées car la chaleur à dissiper reste importante et donc à évacuer le rapidement sous peine de surchauffe. "


Message édité par Fssabbagh le 07-09-2007 à 16:27:09

---------------
Messatsu !
n°5880008
Cizia
Posté le 07-09-2007 à 16:34:10  profilanswer
 

le idle avec la 8800gtx est tres comparable...40.9 et 43.6..
 
et personne ne laisse tourner le ventilo de la x2900 a 100%...
 
en plus thermalright r600 qui sort!!
 
resultat: overcloking sans doute encore superieur et...le silence.... :D

Message cité 2 fois
Message édité par Cizia le 07-09-2007 à 16:35:04

---------------

n°5880009
Profil sup​primé
Posté le 07-09-2007 à 16:35:20  answer
 

Cizia a écrit :

le idle avec la 8800gtx est tres comparable...40.9 et 43.6..
 
et personne ne laisse tourner le ventilo de la x2900 a 100%...
 
en plus thermalright r600 qui sort!!
 
resultat: overcloking sans doute encore superieur et...le silence....
 


 
 
nostradamus a parlé :D

n°5880031
Cizia
Posté le 07-09-2007 à 16:48:47  profilanswer
 

..mon analise est tres logique...

 

un 9.2cm sur le thermalright meme puissant fera toujour largement moins de  bruit que le ventirad de la x2900 a fond...

 

si tu avais vu le pre-test d'un ricain,tu verrai que le thermalright r600 sur ca x2900,il ce taper des bien meilleur temp et quil avait pu faire un belle oc sur ca carte....


Message édité par Cizia le 07-09-2007 à 16:50:06

---------------

n°5880042
Fssabbagh
Satsui no Hado
Posté le 07-09-2007 à 16:56:37  profilanswer
 

alors la 2900XT est bien plus facilement OC que la 8800. Allez sur le topic unique du VF 1000 Led, il est très interressant pour cette carte !


---------------
Messatsu !
n°5880129
twistou
Les cons, ça ose tout ...
Posté le 07-09-2007 à 17:49:03  profilanswer
 

Elle était quand même bien cette question :
"Vaut-il mieux une HD2900xt ou une 8800GTS 640 ?" :)  
 
Cette question que je me pose depuis quelques jours, depuis que j'ai décidé de changer ma CG ... :jap:  
 
Je vois ce sujet et 3 pages à lire, je l'ouvre en me disant qu'après avoir lu ces 3 pages, je pourrais enfin prendre une décision, faire un choix, ... :D  
 
Eh bien, pas vraiment, une bagarre de spécialistes, où se greffe des pro/anti ATI/GeForce, et au final, la question reste posée.  :cry:  
 
Je sens que celà va se finir à pile ou face, c't'affaire ...  :sarcastic:

n°5880225
barbybulle
GIGABYTE OC Team
Posté le 07-09-2007 à 18:44:53  profilanswer
 

HD2900XT [:afrojojo]


---------------
Gigabyte France  
n°5880289
lolotwingo
NCC-1701
Posté le 07-09-2007 à 19:22:03  profilanswer
 

Cizia a écrit :

le idle avec la 8800gtx est tres comparable...40.9 et 43.6..
 
et personne ne laisse tourner le ventilo de la x2900 a 100%...


Qui a parlé de ventilo à 100% ? Il s'agit de ventilo en mode 3d, qui donc ne va pas à 100% mais à la vitesse à laquelle il tourne ... en 3d.
 
Sinon "comparable" : pas du tout, 2.7db de différence, sachant que 3dB = bruit percu multiplié par 2 (c'est une echelle logarithmique)
 
Je comprend vraiment pas d'ailleurs pourquoi ATI s'obstine à mettre des rads qui font autant de bruit, ils perdent des clients (dont moi potentiellement) en imposant l'achat d'un rad (le fameux thermalright) à 50eur pour avoir un niveau sonore raisonnable en 3d.
On pourra dire que l'ATI chauffe plus et que donc il faut souffler plus pour refroidir, certes, mais ca n'explique pas tout. Le rad d'une GTS sur une HD (si ca passait), tournerait un peu plus vite que sur la GTS pour refroidir au même niveau, mais ferait déjà beaucoup moins de bruit que celui d'aujourd'hui  [:mr marcadet]


Message édité par lolotwingo le 07-09-2007 à 19:27:21

---------------
Path Of Exile addicted | LG K11 | BeQuiet! 500DX, Corsair RM850x, Gigabyte B550M DS3H, Ryzen 5 3600 @stock, 2x16Go Corsair Vengeance LPX 3200, Nvidia 3060TI Founders Edition
n°5880345
Gigathlon
Quad-neurones natif
Posté le 07-09-2007 à 19:53:05  profilanswer
 

twistou a écrit :

Eh bien, pas vraiment, une bagarre de spécialistes, où se greffe des pro/anti ATI/GeForce, et au final, la question reste posée.  :cry:  
 
Je sens que celà va se finir à pile ou face, c't'affaire ...  :sarcastic:


Peu importe laquelle des 2 tu prends, même si niveau potentiel la rouge a un léger avantage.
 
Une conso de plus de 50w rien que pour afficher le bureau Windows ou un écran de veille 2D, faut pas pousser, je parle même pas de Vista avec Aero et le Media Center qui fait monter la temp des GPU et donc leur conso sans raison valable...
 
Fssabagh> Il me semble que le ventilo de la 2900 tourne à 7000t/min à donf en fait, comme la x1900xt... sauf qu'il est plus grand et souffle donc énormément [:yamusha]


Message édité par Gigathlon le 07-09-2007 à 19:54:29
n°5880684
Cizia
Posté le 08-09-2007 à 00:16:19  profilanswer
 

c'est ridicule de parler de consommation..
 
toute personne  avec une config actuel aura besoin  d'une alim mechante...
 
allez conseillez une fortron 400w avec un e6750 oc et de la bonne ram et une belle carte graphique actue..  c'est une eresis donc...
 
c'est pas les 30w de plus de la x2900 qui fera la difference...
 
c'est de la blague tout ca...


Message édité par Cizia le 08-09-2007 à 00:22:16

---------------

n°5880690
Gigathlon
Quad-neurones natif
Posté le 08-09-2007 à 00:22:09  profilanswer
 

La conso 3D n'est pas plus problématique que ça, mais la conso 2D l'est.
 
Consommer 20l/100 sur circuit n'est pas gênant, consommer 20l/100 au ralenti, ça l'est.

n°5880700
Cizia
Posté le 08-09-2007 à 00:25:54  profilanswer
 

qu'est ce qu'on c'en fout de la consommation...
 
t'en que tu a un pc performant acceptant tout t'est envie de de reglage...
...


---------------

n°5880702
bonk1
Elle te plait ma soeur ?
Posté le 08-09-2007 à 00:27:24  profilanswer
 

twistou a écrit :

Elle était quand même bien cette question :
"Vaut-il mieux une HD2900xt ou une 8800GTS 640 ?" :)  
 
Cette question que je me pose depuis quelques jours, depuis que j'ai décidé de changer ma CG ... :jap:  
 
Je vois ce sujet et 3 pages à lire, je l'ouvre en me disant qu'après avoir lu ces 3 pages, je pourrais enfin prendre une décision, faire un choix, ... :D  
 
Eh bien, pas vraiment, une bagarre de spécialistes, où se greffe des pro/anti ATI/GeForce, et au final, la question reste posée.  :cry:  
 
Je sens que celà va se finir à pile ou face, c't'affaire ...  :sarcastic:


 
 
La 8800 fait 85% du marché haut de gamme DX10 et la 2900 15%, a toi de voir si tu veux jouer gagnant ou outsider...
 
En perfs y'a très peu d'écart entre les 2, si tu mets les filtre c'est kif-kif (et même un peu meilleur nvidia), mais si tu mets 350€ pour jouer sans filtres c'est mieux ATI (mais bon une x1900 à 130€ suffit alors)
 
Ce qu'il y a de sur :
- + silencieux -> Nvidia
- moins de conso - si ton alime fait moins de 450W -> mieux vaut Nvidia
- potentiel (à démontrer) -> bénéfice du doute ATI, même si les jeux DX10 récent, faute d'ATI sur le marché, sont plus optimisés Nvidia, donc un tantinet meilleurs (sauf Call of Juarez partenaire d'ATI)


---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°5880711
Cizia
Posté le 08-09-2007 à 00:30:20  profilanswer
 

j'ai un pote avec une x2900xt 1go oc a 850/2150..

 

et  tout les jeux sont mechament fluide en 1600/1200.,aa
6,anisototopic *16,..chaque fois que je vais chez lui je me regale ..
c'est tout ce qu'on demande a une carte graphique ,non?
..

Message cité 1 fois
Message édité par Cizia le 08-09-2007 à 00:32:16

---------------

n°5880722
Gigathlon
Quad-neurones natif
Posté le 08-09-2007 à 00:43:52  profilanswer
 

Cizia a écrit :

et  tout les jeux sont mechament fluide
 
c'est tout ce qu'on demande a une carte graphique ,non?


Désolé mais non.
 
Qu'un écran plus grand consomme plus, ça se comprend.
Qu'un GPU plus performant consomme plus en 3D, c'est normal.
 
Mais bon sang, va falloir qu'ils se réveillent sur la conso 2D... Quand on voit que même les 2600xt et 8600gts consomment plus qu'un R580/G71 (qui consommaient déjà un peu beaucoup), ça la fout mal quand même, elles font toutes le même boulot et en plus le R580 est sensiblement plus performant en 3D, la conso 2D est même encore pire pour les G80 et R600.
 
Consommer + pour + de travail effectué est normal, consommer 2-3 fois + sans rien foutre, c'est pas normal. A quoi ça me servirait là de consommer 40w de plus pendant 1-2h où je surf? Les GPU actuels consomment carrément plus en 2D que ceux d'il y a 5 ans en 3D.

Message cité 1 fois
Message édité par Gigathlon le 08-09-2007 à 00:46:29
n°5880730
san_
Posté le 08-09-2007 à 01:02:33  profilanswer
 

encore un topic gf8800 vs hd2900 :/

n°5880734
barbybulle
GIGABYTE OC Team
Posté le 08-09-2007 à 01:05:12  profilanswer
 

Et oui > HD2900XT , vainqueur par ko après 3 pages :D


---------------
Gigabyte France  
n°5880746
Cizia
Posté le 08-09-2007 à 01:16:35  profilanswer
 

Gigathlon a écrit :


Désolé mais non.
 
Qu'un écran plus grand consomme plus, ça se comprend.
Qu'un GPU plus performant consomme plus en 3D, c'est normal.
 
Mais bon sang, va falloir qu'ils se réveillent sur la conso 2D... Quand on voit que même les 2600xt et 8600gts consomment plus qu'un R580/G71 (qui consommaient déjà un peu beaucoup), ça la fout mal quand même, elles font toutes le même boulot et en plus le R580 est sensiblement plus performant en 3D, la conso 2D est même encore pire pour les G80 et R600.
 
Consommer + pour + de travail effectué est normal, consommer 2-3 fois + sans rien foutre, c'est pas normal. A quoi ça me servirait là de consommer 40w de plus pendant 1-2h où je surf? Les GPU actuels consomment carrément plus en 2D que ceux d'il y a 5 ans en 3D.


 
moi qui penser que les gars penser perf...
 
mai non ,elle consomme 30 w de plus...
c'est sur qu'a ce niveau la ca craint sec....
10 wattt la ..peut etre 20w aileur..
je suis offusquer...c'est une dinguerie complette!
 
je suis un actionnaire d'edef sans savoir....
 
merde ,je doit etre con.je pensez faire fonctionner  une config 2007 avec une alim lc power...
 
quel naif je fait...

Message cité 1 fois
Message édité par Cizia le 08-09-2007 à 01:17:27

---------------

n°5880752
moxou
Posté le 08-09-2007 à 01:32:08  profilanswer
 

C'est vraiment difficile de choisir, puisque chaque cartes a ses avantages et ses défauts. Mais il faut arrêter de faire croire à tout le monde que les drivers ont monstrueusement augmenté les perfs de la 2900 XT. Il y a eu surtout des améliorations sur des jeux qui étaient vraiment à la ramasse, c'est très ponctuel, en aucun cas il s'agit d'augmentation globale de perf.
 
Faut bien reconnaitre qu'actuellement, la 8800, c'est la sécurité : chauffe moins, fais moins de bruit, consomme moins, est moins bruyante, a des performances homogènes.
 
La HD 2900 XT est plus performante sans activer les filtres, c'est tout à fait vrai. Mais quel intérêt de jouer avec une telle carte sans les filtres ?
Avec les filtres, elle est également un poil plus performante, mais de peu, et surtout ça manque d'homogéneité : un coup c'est les perfs sont monstrueuses, un coup elle se fait battre par une GTS 320 ... et ceci avec une consommation et une chauffe élevée.
 
Je suis fan d'Ati depuis ma magnifique 9800 Pro, j'ai été également très satisfait de ma X1900GT. Du coup je m'orientais logiquement vers du Ati. J'ai laissé le temps (4 mois tout de même) à AMD de paufiner un peu ses drivers pour voir les "vrais" perfs de la HD 2900XT. Au final c'est plutôt une déception, même si ça reste une carte tout à fait valable.
 
Reste les perspectives d'avenir, le support de direct X 10, etc ... mais c'est bien difficile de répondre à ce genre de question, et rien ne prouve que la HD2900XT suivra le chemin des 9800 et X1900 en se bonnifiant avec l'age. Le parc des 8800 est élevé, et je vois mal un éditeur sortir un jeu qui fonctionne mal avec les nividia à l'heure actuelle ...

n°5880756
Gigathlon
Quad-neurones natif
Posté le 08-09-2007 à 01:46:31  profilanswer
 

moxou a écrit :

Reste les perspectives d'avenir, le support de direct X 10, etc ... mais c'est bien difficile de répondre à ce genre de question, et rien ne prouve que la HD2900XT suivra le chemin des 9800 et X1900 en se bonnifiant avec l'age. Le parc des 8800 est élevé, et je vois mal un éditeur sortir un jeu qui fonctionne mal avec les nividia à l'heure actuelle ...


Pourtant, ça arrivera... [:yamusha]
 
Pour l'AA, la majorité des derniers jeux sortis ne le permettent pas, donc bon, quelque part c'est pas forcément négatif pour le R600, bien que ça me déplaise énormément d'avoir une image toute aliasée.

n°5880830
bonk1
Elle te plait ma soeur ?
Posté le 08-09-2007 à 08:55:00  profilanswer
 

barbybulle a écrit :

Et oui > HD2900XT , vainqueur par ko après 3 pages :D


 
Un ATIdiot  :lol:  
 
Le seul vainqueur c'est celui qui gagne le plus de pognon en bourse... et la faut pas 3 pages pour savoir que c'est le caméléon
 
En DX 10 sous Bioshock, carte comparées (1280x1024 1xAA/16xAF) :
 
Direct3D 10:  
Nvidia GeForce 8800 GTS  55,7  
 
Nvidia GeForce 8800 GTS 320  53,0  
 
ATi Radeon HD 2900 XT  44,5  
 
Nvidia GeForce 8600 GTS  22,3  
 
Nvidia GeForce 8600 GT  17,6  
 
ATi Radeon HD 2600 XT (4)  17,4  
 
ATi Radeon HD 2600 XT (3)  16,6  
 
Si la HD 2900 à de la réserve il est temps qu'elle le démontre


---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°5880840
Gr4phX
PSN: Hard_Khor
Posté le 08-09-2007 à 09:13:09  profilanswer
 

La radeon n'aime pas du tout l'AA et AF... sans filtres elle se défend.


---------------
Muscle or Nuthin'
n°5880841
latoufffe
Posté le 08-09-2007 à 09:15:13  profilanswer
 

Gr4phX a écrit :

La radeon n'aime pas du tout l'AA et AF... sans filtres elle se défend.


non c'est fini ce mythe  maintenant

n°5880843
Profil sup​primé
Posté le 08-09-2007 à 09:16:24  answer
 

latoufffe a écrit :


non c'est fini ce mythe  maintenant


 
 :non:

n°5880854
kachoux
Le regard de la passion ....
Posté le 08-09-2007 à 09:34:47  profilanswer
 

twistou a écrit :

Elle était quand même bien cette question :
"Vaut-il mieux une HD2900xt ou une 8800GTS 640 ?" :)  
 
Cette question que je me pose depuis quelques jours, depuis que j'ai décidé de changer ma CG ... :jap:  
 
Je vois ce sujet et 3 pages à lire, je l'ouvre en me disant qu'après avoir lu ces 3 pages, je pourrais enfin prendre une décision, faire un choix, ... :D  
 
Eh bien, pas vraiment, une bagarre de spécialistes, où se greffe des pro/anti ATI/GeForce, et au final, la question reste posée.  :cry:  
 
Je sens que celà va se finir à pile ou face, c't'affaire ...  :sarcastic:


 
Prends celle qui te botte le plus ;), de toute facon, la question a été posée maintes fois, jamais il n'en ai ressorti une réponse correcte, le sujet s'enlise dans le meme debat sterile chaque fois :/
 
Vas-y au coup de coeur :love:


---------------
Mon feed *_* Mes Achats / Vente
n°5880862
Fssabbagh
Satsui no Hado
Posté le 08-09-2007 à 09:41:41  profilanswer
 

tu peux choisir la plus rapide dans tes jeux préférées. En ce qui me concerne la 2900XT est en desssous de la GTS à Oblivion et alors pour moi c'est nvidia power ;)

n°5880873
ftp381
ça fûme!
Posté le 08-09-2007 à 09:58:15  profilanswer
 

sur le topic du HR03+, déjà une X2900XT qui devient silencieuse et perd plus de 10°C en full avec un ventilo de 92mm.
 
c'est un achat incontournable si on veut les perf (bel o/c) et le silence de fonctionnement.
 
dommage qu'aucun fab ne le propose de série : le kilo de cuivre que l'on remplace on l'a payé pour rien.
 
pas très développement durable tout ça.
 
de mon point de vue c'est seulement avec son rad de remplacement (ou un WC) que la X2900XT devient réellement intéressante.

n°5880877
Profil sup​primé
Posté le 08-09-2007 à 10:05:17  answer
 

ftp381 a écrit :

sur le topic du HR03+, déjà une X2900XT qui devient silencieuse et perd plus de 10°C en full avec un ventilo de 92mm.
 
c'est un achat incontournable si on veut les perf (bel o/c) et le silence de fonctionnement.
 
dommage qu'aucun fab ne le propose de série : le kilo de cuivre que l'on remplace on l'a payé pour rien.
 
pas très développement durable tout ça.
 
de mon point de vue c'est seulement avec son rad de remplacement (ou un WC) que la X2900XT devient réellement intéressante.


 
 
Comme d'acheter une carte qui consomme autant même en 2D :whistle:

n°5880889
moxou
Posté le 08-09-2007 à 10:13:16  profilanswer
 

En 2D, la consommation de la carte est entre une 8800 GTS et une 8800 GTX, ce qui est clairement mauvais, mais pas plus que la concurrence ...

n°5880893
ftp381
ça fûme!
Posté le 08-09-2007 à 10:16:31  profilanswer
 

on s'en fout non ?
 
si la conso en 2D est méga importante et bien tu prends un pc bas de gamme pour l'économie et le surf ... et un pc qui roxxe pour les jeux.
 
on peut même utiliser un chipset vidéo intégré à la CM... ceux là ils consomment vraiment rien :D
 
mon pc a son proco o/c en permanence et le C&Quiet non activé : il consomme plus qu'il ne devrait... en ce moement cela réchauffe un peu la pièce :D
il n'y a qu'en été ou c'est vraiment du gachis.
 
j'ai mis des ampoules basses conso un peu partout, je ne laisse pas allumé ou en veille du matos pour rien, j'ai changer le frigo qui ne s'arrétait pas souvent ... je gagne plus là-dessus que 50W en 2D pendant 2 à 3h par jour.
 
coté refroidissement 16°C de gagné en full sur un 1er exemple :
http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
 
et pour ce qui est du choix je considère que la 8800 GTS est un très bon choix et que la 2900+HR03+ est aussi un très bon choix (un poiul plus cher mais aussi un poil meilleur).

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8

Aller à :
Ajouter une réponse
 

Sujets relatifs
Probleme son P5k+Hd2900XTMise à l'échelle sur 22" wide avec 8800GTS 640Mo
HD2900XT ou 8800GTS 320Mo: perf et prix !8800 gts 320 mo ou 640 mo pour écran 22 pouces ?
TV OUT sur 8800GTSComment utiliser au mieux 3 Raptors...
HD2900XT vs 8800GTS ( 640Mo)Avis nouvelle config
Plus de sujets relatifs à : Vaut-il mieux une HD2900xt ou une 8800GTS 640 ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR