Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1071 connectés 

 

 

Aprés un GT200 consommant et chauffant énormément, pariez-vous sur la révision GT200B en :


 
62.3 %
 415 votes
1.  55nm (nouveau standard)
 
 
22.7 %
 151 votes
2.  45nm (Aucun GPU de produit à cette finesse - coût plus élevé (nouveauté))
 
 
15.0 %
 100 votes
3.  40nm (Aucun GPU de produit à cette finesse - coût bien plus élevé (nouveauté ultime) Dispo pour eux depuis le 2T. 2008)
 

Total : 942 votes (276 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  833  834  835  836  837  838
Auteur Sujet :

[Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250

n°6281002
MacIntoc
tu lis une phrase formidable.
Posté le 16-03-2008 à 20:52:58  profilanswer
 

Reprise du message précédent :
Arf... ok. Ils ont également changer de nomenclature...


---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
mood
Publicité
Posté le 16-03-2008 à 20:52:58  profilanswer
 

n°6281061
Synh
Posté le 16-03-2008 à 21:13:47  profilanswer
 

drapal. :D

n°6281397
Gigathlon
Quad-neurones natif
Posté le 17-03-2008 à 00:15:28  profilanswer
 

marllt2 a écrit :

Bah, le R700 est/était censé être un assemblage de deux RV770... :whistle:


J'imagine le truc si le RV770 vaut déjà 2 RV670 et qu'ils sortent d'entrée une X2... :lol:

n°6281408
marllt2
Posté le 17-03-2008 à 00:23:19  profilanswer
 

Toujours sur chiphell :o  
 

Citation :

G100 = GT200  
 
G70 = NV47  
 
G80 = NV50

Citation :

GT200 now more than R600 die size

Citation :

still 65nm


Message édité par marllt2 le 17-03-2008 à 00:42:59
n°6282046
opyruso
Posté le 17-03-2008 à 14:05:53  profilanswer
 

:hello:  
 
[:pcgamer]


---------------
mon feedback: http://forum.hardware.fr/hfr/Achat [...] 7129_1.htm
n°6282223
marllt2
Posté le 17-03-2008 à 16:09:03  profilanswer
 

Nvidia prepares D10U, 55nm. Comes before GT200:  http://www.fudzilla.com/index.php? [...] 3&Itemid=1
 
Nvidia's 55nm parts to launch in June. D10U and probably more :  http://www.fudzilla.com/index.php? [...] 4&Itemid=1
 
_______________________________________________________
Rien à voir avec fudo par contre:
 
Je rappelle que G92B 55nm et "GT200" vont cohabiter dans la prochaine gamme. ;) Le GT200 étant la next-gen en THDG, et le G92B se plaçant en dessous.
 
source: ma source habituelle. ;)


Message édité par marllt2 le 17-03-2008 à 16:40:06
n°6282276
Gigathlon
Quad-neurones natif
Posté le 17-03-2008 à 16:32:34  profilanswer
 

Rien que le "U" de D10U c'est pas crédible...
 
On peut aussi ajouter ça:
 

Citation :

We also heard that the architecture will be G92 / D8P-like, but somewhat cooler due to the smaller chip. We guess that this product will fight the new revision of the RV670 chips, but the real competitor is RV770, the chip that should come after this summer.
 
We know that the D10U will end up hot, but as long as it scores, people don’t care that much.


Message édité par Gigathlon le 17-03-2008 à 16:35:19
n°6282285
marllt2
Posté le 17-03-2008 à 16:36:03  profilanswer
 

En même temps c'est Fudo hein... :whistle:  Ma source ne parlant que de G92B. ;)

n°6282290
Gigathlon
Quad-neurones natif
Posté le 17-03-2008 à 16:37:51  profilanswer
 

Ta source je dirai rien, mais là faut pas pousser, c'est du nawak :o

n°6282321
Cybieres
Posté le 17-03-2008 à 16:53:56  profilanswer
 

Drapal

mood
Publicité
Posté le 17-03-2008 à 16:53:56  profilanswer
 

n°6282380
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 17-03-2008 à 17:41:23  profilanswer
 

Mauvaise nouvelle les gars, le G100 s'éloigne au profit d'un G92 (encore ?!?) plus petit ;
 
Le constructeur NVIDIA devrait graver son processeur G92 en 55 nm dès le deuxième trimestre. Ce nouveau processeur baptisé G92b sera 17 % plus petit que le précédent, mais ses caractéristiques seront identiques. Aujourd'hui, une puce RV670 d'AMD gravée en 55 nm mesure 194 mm² alors qu'un G92 gravé en 65 nm mesure 334 mm². Le nouveau G92b gravé en 55 nm mesurera seulement 276 mm². Il permettra de concurrencer le RV770 toujours gravé en 55 nm qui mesurera 250 mm².
 
La GeForce 9800 GX2 sera annoncée officiellement demain, la GeForce 9800 GTX dont on connaît déjà les caractéristiques sera dévoilée le 25 mars, puis il faudra attendre la fin du deuxième trimestre pour voir de nouvelles cartes graphiques basées sur les RV770 et G92b.
source : matbe


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6282429
marllt2
Posté le 17-03-2008 à 18:10:03  profilanswer
 

super_newbie_pro a écrit :

Mauvaise nouvelle les gars, le G100 s'éloigne au profit d'un G92 (encore ?!?) plus petit


Non il ne s'éloigne pas. [:spamafote] Et en plus la news de matbe est pas fraîche, elle a été posté sur Vr-zone le 13.  :o  
 
 
http://www.vr-zone.com/articles/55 [...] /5647.html
 
http://www.matbe.com/actualites/32 [...] 92b-rv770/
 
http://www.matbe.com/actualites/32 [...] g92-55-nm/


Message édité par marllt2 le 17-03-2008 à 18:22:54
n°6282434
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 17-03-2008 à 18:12:50  profilanswer
 
n°6284180
Fluff-
wtf ch0b0?
Posté le 18-03-2008 à 16:07:32  profilanswer
 

drapalization
 
en esperant avoir une vraie nouvelle génération :)

n°6284289
marllt2
Posté le 18-03-2008 à 17:09:49  profilanswer
 

Fluff- a écrit :

en esperant avoir une vraie nouvelle génération


Le GT200 ne repartira pas d'une feuille blanche comme l'avait été le G80 par rapport au G70/71. ;)

n°6284305
MacIntoc
tu lis une phrase formidable.
Posté le 18-03-2008 à 17:19:03  profilanswer
 

J'espère qu'il ne s'agira pas d'un simple boostage comme le fait ATI pour RV770.


---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
n°6284338
marllt2
Posté le 18-03-2008 à 17:32:21  profilanswer
 

MacIntoc a écrit :

J'espère qu'il ne s'agira pas d'un simple boostage comme le fait ATI pour RV770.


Je n'en sait pas plus. [:spamafote]  Espérons que nVidiia ait amélioré le support des GS. :/
 
 
Sinon, Matbe continue ses déclarations à demi-mot...  :whistle:  
 

Citation :

Pourquoi des GeForce 9 alors ? D’autant plus lorsque l’on sait que la génération suivante de GPU NVIDIA verra le jour à la fin de l’été. La durée de vie de la série 9 aura alors été d’un peu plus de 6 mois contre près de 16 mois pour les GeForce 8.  
 
Au passage, nous avons appris que les GeForce 8800 GT et GTS 512 seront sous peu en fin de vie. Cette durée de commercialisation très courte mérite qu’on qualifie ces cartes de comètes… En réalité si NVIDIA a inauguré les GeForce 9, c’est pour mettre en avant son Hybrid Power et son GeForce Boost, repris sous l'appellation Hybrid SLI, bien que certaines GeForce 8 bas de gamme sont aussi compatibles avec ces fonctionnalités.
[...]
Un peu maigre comme argument mais en attendant la véritable relève qui tarde à venir (qui a dit que NVIDIA était en retard ?), la firme au caméléon doit bien occuper le terrain afin de maintenir ses ventes.

http://www.matbe.com/articles/lire [...] -9800-gx2/


Message édité par marllt2 le 18-03-2008 à 17:38:15
n°6284772
Pilipe
Posté le 18-03-2008 à 20:40:27  profilanswer
 

Les premières Geforces 10 vont sortir quand environ ? Et les première qui vont sortir ce ne sera pas le haut de gamme ?

n°6284782
friteman
Posté le 18-03-2008 à 20:44:16  profilanswer
 

En théorie, le HDG sort en 1er pour attirer les clients vers le MDG...
Mais on a vu cette année que le 9600 est sorti avant le 9800... Mais bon, comme il n'y a aucune nouvelle architecture, c'est un peu n'importe quoi. On va se retrouver avec des évolutions d'évolution... :(

n°6284796
marllt2
Posté le 18-03-2008 à 20:48:39  profilanswer
 

Pilipe a écrit :

Les premières Geforces 10 vont sortir quand environ ?


C'est écris dans le post juste au dessus du tiens. :whistle:

n°6284847
Pilipe
Posté le 18-03-2008 à 21:18:48  profilanswer
 

Ok merci beaucoup ;) j'espère avoir le HDG ou le UHDG en premier c'est ce qui m'intéresse :)
 
Comme je ne connais pas grand chose sur les Rops etc...
Il y aura vraiment un énorme gain de performance ? Le double, Le triple ?
Ps: je parle du HDG ou UHDG

 

Édit : vue toute cette puissance on sera pas CPU limited ?

Message cité 1 fois
Message édité par Pilipe le 18-03-2008 à 21:46:11
n°6284902
friteman
Posté le 18-03-2008 à 22:00:17  profilanswer
 

Pilipe a écrit :

Ok merci beaucoup ;) j'espère avoir le HDG ou le UHDG en premier c'est ce qui m'intéresse :)
   
Comme je ne connais pas grand chose sur les Rops etc...
Il y aura vraiment un énorme gain de performance ? Le double, Le triple ?  
Ps: je parle du HDG ou UHDG
 
Édit : vue toute cette puissance on sera pas CPU limited ?


je m'excuse de cette réponse un peu bete mais ... cela dépend de ton CPU. Il y a peu etre un risque d'etre CPU limited autour des 3ghz avec un dual core et sur les cartes UHDG. Je suis en train de regarder cela sur ma config avec un E6600 testé a différentes fréquence couplé à une 8800GTSv2 pour voir si la config est CPU limited... pour l'instant il semblerait qu'a 2.4, .2.5 et 2.7 la config est bien CPU limited sur Crysis, World in Conflict et 3dmark06 ...
Avoir donc

n°6285178
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 19-03-2008 à 02:35:22  profilanswer
 

Et puis pour faire un peu de HS, le Nalhem arrive bientot ^^ Les limites CPU vont encore être repoussées toujours plus loin.


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6285184
Rayaki
Posté le 19-03-2008 à 02:54:44  profilanswer
 

autant que le vide du porte monnaie et le mécontentement du banquier + sa chérie :/


Message édité par Rayaki le 19-03-2008 à 02:55:02
n°6285234
Gigathlon
Quad-neurones natif
Posté le 19-03-2008 à 07:52:55  profilanswer
 

friteman a écrit :

je m'excuse de cette réponse un peu bete mais ... cela dépend de ton CPU. Il y a peu etre un risque d'etre CPU limited autour des 3ghz avec un dual core et sur les cartes UHDG


Sauf que globalement dual ou quad la limitation CPU vient non pas de la puissance brute mais de la puissance single thread, donc E6600 = Q6600...

n°6286167
Pilipe
Posté le 19-03-2008 à 16:10:21  profilanswer
 

Ok avec un E8500 O/C vers les 5Ghz on sera quand même CPU Limited ?

n°6286193
MacIntoc
tu lis une phrase formidable.
Posté le 19-03-2008 à 16:28:22  profilanswer
 

Les cas seront rare, peut-être inexistant.
Mais je doute qu'un 8500 puisse tenir les 5GHz en H24.


---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
n°6286784
Pilipe
Posté le 19-03-2008 à 20:17:26  profilanswer
 

Ok merci beaucoup :) donc ça va alors ;) de toute façon au dessus de 50 Fps voir un peut moins le jeux passe nickel

n°6288181
jujuro38
Posté le 20-03-2008 à 15:42:42  profilanswer
 

Pilipe a écrit :

Ok avec un E8500 O/C vers les 5Ghz on sera quand même CPU Limited ?


 
 
A partir de 4Ghz, je voi pas de jeu qui peuvent etre CPU limited, et même un peu moins. Jpense qu'un E8400 en 9*400 (3.6Ghz) peut faire tourner a fond tout les jeux en calcul cpu. Le jeu qui demande le plus de ressource à un cpu aujourd'hui, n'est pas un fps je pense, mais plutot un jeu de simulation comme Flight Simulator X. Les calculs aéro sont trèèèèèèèèèèès lourds (calcul de portance, d'inerties, influence météo, ...) et en plus le cpu fait ces calculs pour l'appareil dans lequel tu es, mais aussi pour tous les appareils se trouvant dans la zone dans laquel tu voles. Ya qu'a voir les tests : graphiquement Flight Simulator X est beaucoup moins poussé qu'un crysis ou qu'un RainbowSix Vegas (même si il est très beau), mais les tests ateignent rarement les 30 fps avec un Q6600 ou un QX9650 et une CG HDG (8800GTX dans le test ci-dessous). On est donc forcément CPU Limited. Jpense que aujourd'hui c'est LE jeu qui demande le plus de ressources CPU.
http://www.hardware.fr/articles/69 [...] x9650.html
 
Pour les autres jeux, atendont patiament les GT200...
Mais une Mobo avec un E8600 @ 4Ghz (10*400), + une (ou 2) CG GT200 1Go de DDR sur bus 512 bits et 4Go de Ram DDR2-800 C4 devrait pouvoir faire tourner tous les jeux d'aujourd'hui à fond, avec un minimum de 50fps pour Crysis en Very Hight (vu que ça devien une référence aparement). Sous résèrve des perfs du GT200 bien entendu.
Budget : environ 1500€ / 2000€ avec un SLI de GT200, suivant le prix de vente des CG GT200

Message cité 2 fois
Message édité par jujuro38 le 20-03-2008 à 16:04:19
n°6288275
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 20-03-2008 à 16:40:54  profilanswer
 

jujuro38 a écrit :


 
 
A partir de 4Ghz, je voi pas de jeu qui peuvent etre CPU limited, et même un peu moins. Jpense qu'un E8400 en 9*400 (3.6Ghz) peut faire tourner a fond tout les jeux en calcul cpu. Le jeu qui demande le plus de ressource à un cpu aujourd'hui, n'est pas un fps je pense, mais plutot un jeu de simulation comme Flight Simulator X. Les calculs aéro sont trèèèèèèèèèèès lourds (calcul de portance, d'inerties, influence météo, ...) et en plus le cpu fait ces calculs pour l'appareil dans lequel tu es, mais aussi pour tous les appareils se trouvant dans la zone dans laquel tu voles. Ya qu'a voir les tests : graphiquement Flight Simulator X est beaucoup moins poussé qu'un crysis ou qu'un RainbowSix Vegas (même si il est très beau), mais les tests ateignent rarement les 30 fps avec un Q6600 ou un QX9650 et une CG HDG (8800GTX dans le test ci-dessous). On est donc forcément CPU Limited. Jpense que aujourd'hui c'est LE jeu qui demande le plus de ressources CPU.
http://www.hardware.fr/articles/69 [...] x9650.html
 
Pour les autres jeux, atendont patiament les GT200...
Mais une Mobo avec un E8600 @ 4Ghz (10*400), + une (ou 2) CG GT200 1Go de DDR sur bus 512 bits et 4Go de Ram DDR2-800 C4 devrait pouvoir faire tourner tous les jeux d'aujourd'hui à fond, avec un minimum de 50fps pour Crysis en Very Hight (vu que ça devien une référence aparement). Sous résèrve des perfs du GT200 bien entendu.
Budget : environ 1500€ / 2000€ avec un SLI de GT200, suivant le prix de vente des CG GT200


 
faut voir les jeux pour le cpu limited


---------------
FeedBack
n°6289612
Cloud_
22 / 02 / 08
Posté le 21-03-2008 à 12:12:43  profilanswer
 

Deçu par les GF9 (merci aux 8800GT d'etre là), je sens que je vais surveiller de très près les GF10 !
Alors je drapalise [:spaydar]

n°6290203
lapin garo​u
GNOUXE
Posté le 21-03-2008 à 17:31:50  profilanswer
 

Cloud_ a écrit :

Deçu par les GF9 (merci aux 8800GT d'etre là), je sens que je vais surveiller de très près les GF10 !
Alors je drapalise [:spaydar]


 
Mwa je susi pas déçu par les 9600GT,elles tiennent leur promesses de MDG...

n°6290245
flagadadim
harley quinn fanboy
Posté le 21-03-2008 à 17:45:46  profilanswer
 

Sur le papier, les futur ATI sont pas mal, faut voir la veritable date de sortie...
 
http://images3.hiboox.com/vignettes/1208/njm1xuy0.png
 
http://images3.hiboox.com/vignettes/1208/y6q7qq9y.png


Message édité par flagadadim le 21-03-2008 à 17:55:23

---------------
« Quand j'étais jeune, j'étais très con. Je suis resté très jeune. »Jean-Claude Van Damme
n°6290261
lapin garo​u
GNOUXE
Posté le 21-03-2008 à 17:51:56  profilanswer
 

2 TeraFlops c'est sûr,c'est plus que prometteur
 
Intel eux même n'en prévoient que 1 Tera pour ses futurs proco graphiques,et aujourd'hui les graphiques nous sortent 500 GigaFlops...
 
Enfin bref,s'il vous plait,ne trollons pas :D

n°6290517
marllt2
Posté le 21-03-2008 à 20:17:23  profilanswer
 

jujuro38 a écrit :

Le jeu qui demande le plus de ressource à un cpu aujourd'hui, n'est pas un fps je pense, mais plutot un jeu de simulation comme Flight Simulator X. Les calculs aéro sont trèèèèèèèèèèès lourds (calcul de portance, d'inerties, influence météo, ...) et en plus le cpu fait ces calculs pour l'appareil dans lequel tu es, mais aussi pour tous les appareils se trouvant dans la zone dans laquel tu voles.  
 
Ya qu'a voir les tests : graphiquement Flight Simulator X est beaucoup moins poussé qu'un crysis ou qu'un RainbowSix Vegas (même si il est très beau), mais les tests ateignent rarement les 30 fps avec un Q6600 ou un QX9650 et une CG HDG (8800GTX dans le test ci-dessous). On est donc forcément CPU Limited. Jpense que aujourd'hui c'est LE jeu qui demande le plus de ressources CPU.
http://www.hardware.fr/articles/69 [...] x9650.html


C'est parce que FSX utilise peu de shaders, mais énormément de géométrie. :o Forcément le CPU est vite débordé, alors que le GPU se tourne les pouces.  [:spamafote]  
 
DX10 introduisait les Geometry Shaders et devait en partie résoudre ce problème (c'est sur cette base que le fameux photoshop de FSX DX10 a été fait), mais comme le G80 est totalement à la ramasse dans ce domaine, et ben les développeurs n'ont pas du tout inclus de GS dans le patch DX10.
 
Le patch SP2 améliore quand même les choses en supportant bien le multithreading. 2 cores minimum, 4 recommandés, et jusqu'à 8 cores pour les gros add-ons.
 
http://pix.nofrag.com/3/4/0/ffa05306644d4ff2d815642a11b5f.png
 
Par contre FSX ne fait pas de calcul de portance. Tout est figé dans un fichier de config assez simple. D'où parfois des modèles de vol aléatoires. ;)  
C'est X-Plane qui calcule en temps réel la portance et tout ce qui va avec, ce qui fait que les sensations de vol sont bien + réalistes (assez proche de Flight Unlimited 3). Mais bien sûr les graphismes restent en retrait de FSX (quoique ça s'améliore avec les versions...)
 
http://pix.nofrag.com/4/d/7/c07faeb69e51be7a6f3d55ec64741.jpg

Message cité 1 fois
Message édité par marllt2 le 22-03-2008 à 07:41:23
n°6291185
caillebott​e
Mes raboteurs de parquet sûrs
Posté le 22-03-2008 à 07:37:32  profilanswer
 

[:theorie des lavabos] Drapal

n°6291186
marllt2
Posté le 22-03-2008 à 07:39:39  profilanswer
 

Cloud_ a écrit :

Deçu par les GF9 ...


Tu n'es pas le seul apparemment. :whistle:  
 

Citation :

If nVidia is smart they will either release the new cards NO LATER than September. The 9800 series is an ABSOLUTE joke and an insult to PC gamers and PC hardware enthusiasts. nVidia KNEW what we expected from them and decided to release something they KNEW we didn't want to see. Awesome job listening to your base nVidia. ..


Message édité par marllt2 le 22-03-2008 à 07:40:04
n°6291210
Eldem
Posté le 22-03-2008 à 08:48:52  profilanswer
 

je pose un [:drapal]  
 
pour le cpu limited, je suis un peu sceptique quand meme... le jeu le plus gourmand aujourd'hui (crysis) est clairement gpu limited..  
ca m'arrangerait de pas avoir a changer mobo/cpu/ddr en meme temps !  :whistle:  


---------------
"There have always been ghosts in the machine. Random segments of code that have grouped together to form unexpected protocols"  
n°6291397
xtremairco​ol
Posté le 22-03-2008 à 11:48:25  profilanswer
 
n°6291685
Maxaks
Posté le 22-03-2008 à 14:14:25  profilanswer
 

[:drapal]  
 
sinon, ces cartes seront compatibles avec les cm à bus PCI Express 1.0?

n°6291811
Rayaki
Posté le 22-03-2008 à 15:13:48  profilanswer
 


 
drapal pas du tout déguisé ?!  :whistle:  

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  833  834  835  836  837  838

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Intel Core 2 Duo E4700[Topic Unique] Silverstone FT01
[Topic Unique] Bluetooth / Bluesoleil / test de dongle des membres[Topic unique] Nvidia 9600 GT
Plus de sujets relatifs à : [Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR