Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1232 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  6  7  8  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°6949339
god is dea​d
Demain, j'arrête de poster.
Posté le 08-05-2009 à 12:12:56  profilanswer
 

Reprise du message précédent :
Si le rv870 est seul, effectivement. Mais bon, là encore c'est d'une évidence... Que veux tu que Nvidia dise ? Pour le reste rien ne dit que le rv870 sera seul, pas plus qu'il ne sortira réellement cet été.


Message édité par god is dead le 08-05-2009 à 12:14:26

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 08-05-2009 à 12:12:56  profilanswer
 

n°6949347
poiuytr
\o/
Posté le 08-05-2009 à 12:21:48  profilanswer
 

Activation a écrit :


 
en meme temps en général un editeur fait ça pub sur le contenu du jeu par sur le fait qu il est dx7 dx8 dx9 dx10 dx11
 
je prend un devil may cry 4 avant que la demo soit sorti je savais meme pas qu il y avait un mode dx10 en plus de dx9


Peut être parce que ce mode DX10 n'apportait pas grand chose. :p  
Ca dépend des jeux et de la com mise en place par l'éditeur. Certains jeux tirent correctement parti de DX10 (Stalker, Crysis, etc) et d'autre pas ou peu. Bref.


---------------

n°6949363
kaiser52
Posté le 08-05-2009 à 12:36:35  profilanswer
 

god is dead a écrit :


J'adore tes deux premières phrases. Nvidia ne parle jamais du concurrent... sauf si la carte en question est meilleure que celle du concurrent. Donc il en parle, vu que c'est le concept du slide marketing [:roane]  
 
En effet, dans un slide si on voit une carte concurrente c'est pour glorifier la carte qui va débarquer. C'est un peu le concept, oui. Et AMD fera la même chose avec son rv870, en effet. Tu aimes enfoncer les portes ouvertes ? Ce que tu racontes est d'une évidence...
 
Tiens, un beau slide pour le gt 200 :
http://www.geeks3d.com/?p=172
 
Comme tu vois, ta première affirmation est fausse, même si tu as l'intuition qu'elle l'était effectivement, vu ta phrase suivante.


 
J'adore l'echelle !


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6949371
god is dea​d
Demain, j'arrête de poster.
Posté le 08-05-2009 à 12:44:00  profilanswer
 

Oué, c'est aussi le principe d'un slide. Vous débarquez tous ou quoi ? :p


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6949393
Activation
21:9 kill Surround Gaming
Posté le 08-05-2009 à 12:58:34  profilanswer
 

poiuytr a écrit :


Peut être parce que ce mode DX10 n'apportait pas grand chose. :p  
Ca dépend des jeux et de la com mise en place par l'éditeur. Certains jeux tirent correctement parti de DX10 (Stalker, Crysis, etc) et d'autre pas ou peu. Bref.


ptet aussi qu il était là en terme avant tout:
 
ça coute rien de le mettre
 
on perd pas en performance
 
et notre jeu à plus de chance d etre compatible avec les prochain OS microsoft qui si on l avait fait qu en dx9 qui est sur la sellette
 
quand vous avez des perf equivalente à dx9 mais pas de truc qui pete visuellement vous gueulé
 
quand vous avez des trucs qui pète visuellement en plus mais du coup baisse de framerate vous gueulez
 
le jour ou les bande de trolleurs comme vous comprendrez qu un sdk dx11 c est pas fait pour faire tourner 2x plus vite les jeux que dx9 putain le monde aura changé
 
dx10 il est né pour permettre des chose que dx9 ne permet pas et ne permettra jamais  
 
c est comme ci vous démordiez pas de vouloir faire marcher une carte wifi sur un windows NT4
 
l'OS n'a jamais été consu pour ça vu que le wifi n existait pas.
 
mais c est pas grave vous allez casser les couilles à tout le monde durant 100ans bref toute votre vie jusqu'à ce que vous creviez que gniagnia gnia le wifi marcherait pas sous NT4
 
meme principe pour dx10 et dx11
c est pas un patch ou à jeu equivalent à matos equivalent tu va voir doubler le framerate
 
bande de nouilles putain mais qu est ce que ça gonfle vos remarques sur dx10 et dx11
 
faites pas chier retourné à dx8 ou ms dos extended
mieux allez sur console et nous cassez plus les couilles si vous savez pas ce que sais ou bien meme avez pas envie de savoir comment ça marche
bref barré vous du monde PC si l evolution vous fait tant chier ... les consoles ça sera à votre niveau ça a 2 générations technique de retard
 
merde quoi  [:cerveau arf]

Message cité 2 fois
Message édité par Activation le 08-05-2009 à 13:00:35
n°6949416
Gigathlon
Quad-neurones natif
Posté le 08-05-2009 à 13:16:41  profilanswer
 

Activation a écrit :

faites pas chier retourné à dx8 ou ms dos extended


Je crois que le principal reproche, c'est justement que malgré des moyens ridicules à l'époque on pouvait avoir des moteurs 3D franchement pas laids... alors qu'actuellement la puissance est là (genre un RV770/GT200 qui dispose de ~10000x la puissance de calcul de l'époque) mais le résultat est loin d'être transcendant, sans pour autant être réellement plus facile à programmer.


Message édité par Gigathlon le 08-05-2009 à 13:18:41
n°6949430
Profil sup​primé
Posté le 08-05-2009 à 13:30:39  answer
 

On vient de perdre Activation [:ruxx]  
Il subit une déprime informatique normale en ce temps de crise, surement [:oxgn]  
Allaÿ [:herbert de vaucanson]

n°6949448
twistou
Les cons, ça ose tout ...
Posté le 08-05-2009 à 13:49:58  profilanswer
 

poiuytr a écrit :

Je ne veux rien faire croire. Je constate juste que pour le moment il y a 0 jeu DX11 annoncé. [:spamafote] Peut être à l'E3.


 
En même temps, les CG DX11 ne sont pas là non plus.
 
Ceci dit, les moteurs graphiques on déjà migré en DX11 comme par exemple Frostbite (Battlefield). Ce qui confirme que le SDK a été remis aux éditeurs. Les jeux en cours de développement prennent en compte les spécifications DX11.
 
Sachant qu'il est facile(et rapide) d'implémenter les instructions DX11 à un jeu développé en DX10, on doit s'attendre à voir les prochains jeux sortir directement optimisés pour DX11. La nouvelle api étant capable de déterminer le type de CG, elle sera en mesure de déterminer les types de calcul qui pourront être opérés ou non.

n°6949520
poiuytr
\o/
Posté le 08-05-2009 à 14:40:40  profilanswer
 

Oui, c'est pour ça que j'ai dit : "Peut être à l'E3"...
 
> Activation
Tu t'enflammes tout seul, là. C'est une évidence que les nouveaux DX apporte un plus visuellement, après c'est plus ou moins visible. Mais DX10 est un peu particulier, il n'a pas été souvent bien utilisé. Sur Stalker CS, en mode DX10.1, on sent ce qu'apporte DX10 et de fait, si baisse de framerate il y a, c'est justifiable. Après c'est pas toujours le cas.  
Bref, ça me gonfle un peu cette discussion sur DX, je ne vois pas ce qui te fout en boule dans mes posts.


---------------

n°6949869
Popeye45
Posté le 08-05-2009 à 18:53:54  profilanswer
 

Pour Activation:
 
Il faut te calmer toi quand meme...
 
Le respect tu connais?
Je vais peut etre te décevoir; mais chacun son avis et la tienne ne vaut pas plus que celle d'un autre....

mood
Publicité
Posté le 08-05-2009 à 18:53:54  profilanswer
 

n°6950051
darkorel
Posté le 08-05-2009 à 22:34:24  profilanswer
 

fantastique........ http://www.puissance-pc.net/cartes [...] ?Itemid=49 .......quelle bande de boulets!

Message cité 1 fois
Message édité par darkorel le 08-05-2009 à 22:35:16
n°6950137
marllt2
Posté le 09-05-2009 à 01:00:55  profilanswer
 

Activation a écrit :

ptet aussi qu il était là en terme avant tout:
 
ça coute rien de le mettre
 
on perd pas en performance
 
et notre jeu à plus de chance d etre compatible avec les prochain OS microsoft qui si on l avait fait qu en dx9 qui est sur la sellette
 
quand vous avez des perf equivalente à dx9 mais pas de truc qui pete visuellement vous gueulé
 
quand vous avez des trucs qui pète visuellement en plus mais du coup baisse de framerate vous gueulez
 
le jour ou les bande de trolleurs comme vous comprendrez qu un sdk dx11 c est pas fait pour faire tourner 2x plus vite les jeux que dx9 putain le monde aura changé
 
dx10 il est né pour permettre des chose que dx9 ne permet pas et ne permettra jamais  
 
c est comme ci vous démordiez pas de vouloir faire marcher une carte wifi sur un windows NT4
 
l'OS n'a jamais été consu pour ça vu que le wifi n existait pas.
 
mais c est pas grave vous allez casser les couilles à tout le monde durant 100ans bref toute votre vie jusqu'à ce que vous creviez que gniagnia gnia le wifi marcherait pas sous NT4
 
meme principe pour dx10 et dx11
c est pas un patch ou à jeu equivalent à matos equivalent tu va voir doubler le framerate
 
bande de nouilles putain mais qu est ce que ça gonfle vos remarques sur dx10 et dx11
 
faites pas chier retourné à dx8 ou ms dos extended
mieux allez sur console et nous cassez plus les couilles si vous savez pas ce que sais ou bien meme avez pas envie de savoir comment ça marche
bref barré vous du monde PC si l evolution vous fait tant chier ... les consoles ça sera à votre niveau ça a 2 générations technique de retard
 
merde quoi  [:cerveau arf]


Excellent. :lol:
 

god is dead a écrit :

Tu aimes enfoncer les portes ouvertes ? Ce que tu racontes est d'une évidence...


En même temps ça fait moins mal qu'enfoncer des portes fermées. [:cosmoschtroumpf]
 

darkorel a écrit :

fantastique........ http://www.puissance-pc.net/cartes [...] ?Itemid=49 .......quelle bande de boulets!


Ca reste de la rumeur, comme pour le rv870.
 

twistou a écrit :

Sachant qu'il est facile(et rapide) d'implémenter les instructions DX11 à un jeu développé en DX10, on doit s'attendre à voir les prochains jeux sortir directement optimisés pour DX11.


Oui, contrairement à DX10.
 
Avec DX10 il fallait aux développeurs des samples de cartes DX10, et espérer que vista se déploie rapidement (vour vendre lesdits jeux).
 
DX11 étant un superset de DX10, les développeurs peuvent déjà convertir leur moteur 3D vers DX11 (simple conversion sans tirer partie des specs supplémentaires). Et avec le Warp, la plupart fonctions manquantes aux cartes DX10 peuvent être émulées. De quoi simplifier le développement.
 
Et 7 étant plutôt bien accueilli, ça devrait inciter les développeur à inclure un mode DX11 plus rapidement qu à l'époque de DX10.
 
Par contre pour exploiter entièrement DX11 (Tessellation, Compute Saders, SM 5.0, nouveaux formats de textures...) ça prendra sans doute plus de temps. Ca dépendra surtout de la rapidité des GPU.
 

Activation a écrit :

par contre là ou nvidia a pas tout à fait tord c est qu'avec le RV870 on pourra pas spécialement profiter d'une expérience de fou sous dx11
 
car compte tenu des spec officieuse du rv870 y a pas non plus d quoi te scotcher


Il est clair que ça n'est pas le même genre d'augmentation de perfs que 7900 GTX -> 8800 GTX.

Message cité 1 fois
Message édité par marllt2 le 09-05-2009 à 01:22:47
n°6950162
Gigathlon
Quad-neurones natif
Posté le 09-05-2009 à 02:16:51  profilanswer
 

marllt2 a écrit :

Par contre pour exploiter entièrement DX11 (Tessellation, Compute Saders, SM 5.0, nouveaux formats de textures...) ça prendra sans doute plus de temps. Ca dépendra surtout de la rapidité des GPU.


Oui enfin pour ces bricoles...
 
La tesselation sera probablement le principal ajout aux moteurs DX11 par sa simplicité: il suffit de reprendre ce qu'on a en low poly (consoles?) pour y ajouter des effets déjà bien maîtrisés puisque utilisés parfois avec des VS.
 
Les CS risquent eux d'être vite utilisés dans des moteurs physiques ou la gestion de l'IA (je pense notamment aux jeux d'échecs dont la complexité de l'IA peut devenir monstrueuse: X coups possibles d'entrée, puis X², puis X^3... tout ça profitera grandement de la puissance de calcul massivement parallèle offerte par les GPU)


Message édité par Gigathlon le 09-05-2009 à 02:18:04
n°6950169
bjone
Insert booze to continue
Posté le 09-05-2009 à 03:08:20  profilanswer
 

L'IA moins, beaucoup de branchements, faible rendement....
 
Les computes shaders seront effectivement plus pour la physique, et autre traitement procéduraux (génération de terrains, nuages...)
Voir pourquoi implémenter complètement des codecs vidéos accéléré GPU cross-vendor. (Genre tu uploade le flux, et tout se fait en local au gpu)

Message cité 1 fois
Message édité par bjone le 09-05-2009 à 03:10:12
n°6950171
Gigathlon
Quad-neurones natif
Posté le 09-05-2009 à 03:20:51  profilanswer
 

bjone a écrit :

L'IA moins, beaucoup de branchements, faible rendement....


Faible mais suffisant pour ridiculiser un CPU dans le cas des échecs :o
 
Sachant que chaque coup amène un nouveau scénario où plusieurs coups sont possibles, chaque coup devant être évalué en terme de gain/perte/enchainements possibles.
 
C'est un truc auquel j'avais déjà réfléchi il y a 4 ans, mais j'ai jamais approfondi la question des notations (échec, prise, perte... théoriquement la prise et la perte doivent se compenser, mais une perte à un coup n'est pas forcément compensée par une prise au coup suivant, et il reste l'échec difficilement "chiffrable", raison pour laquelle les jeux les plus basiques le recherchent en priorité)

n°6950196
marllt2
Posté le 09-05-2009 à 06:47:54  profilanswer
 

Conférence de nVidia à ses investisseurs pour le Q1 2009: http://seekingalpha.com/article/13 [...] transcript
 

Citation :

Rajvindra Gill - Needham & Company
 
can you give us any update in terms of the GT300 architecture, or the next generation architecture? Is that on schedule for the second half of ’09 or do you foresee any potential roadblocks with that rollout?

Citation :

Jen-Hsun Huang
 
We don’t comment about future products. Our current products are doing very, very nicely in the marketplace. What’s the point of talking about future products?


nVidia avait été bizzarement bien plus bavard pour commenter le GT200 avant qu'il soit annoncé. [:brainbugs]
 
Surtout que dans le même temps, Dirk Meyer (CEO d'AMD) annonce à ses investisseurs une "wave of DX11 compatible products" pour le H2 en 40nm.
 
 

Citation :

Jen-Hsun Huang
 
Let’s see -- the ramp is going fine. It’s during the -- you know, we are ramping 40-nanometer probably harder than anybody [...] and so at this point, there’s really not much to report


 
Jen-Hsun Huang est dans le même état qu'avant le lancement de la FX 5800: il tourne aux hallucinogènes !  [:yamusha]
 
Du coup The Inq se déchaîne... http://www.theinquirer.net/inquire [...] ders-truth
 

Citation :

it makes you wonder what the Nvidia definition of "fine" is. Boils? Cafeteria food? If its 40nm ramp is "fine", so is the mess in Iraq.


[:rofl]


Message édité par marllt2 le 09-05-2009 à 07:04:01
n°6950200
mikestewar​t
Air Roll Spinnin'
Posté le 09-05-2009 à 07:09:18  profilanswer
 

Citation :

we are ramping 40-nanometer probably harder than anybody

 

Clair qu'ils ont plus de mal.  :o

 

Oui donc Huang a confirmé implicitement que le GT300 sortira en 2010. :/

 

Sinon 25% de 40nm chez Nvidia fin 2009, ça va être quoi ? Des GT21x ?

 
Citation :

In terms of the mix towards the end of the year, let’s see -- I haven’t -- my rough math would suggest about 25%

Message cité 1 fois
Message édité par mikestewart le 09-05-2009 à 07:12:05
n°6950202
marllt2
Posté le 09-05-2009 à 07:12:39  profilanswer
 

mikestewart a écrit :

Sinon 25% de 40nm chez Nvidia fin 2009, ça va être quoi ? Des GT21x ?


Oui, les GT218, GT216, et GT215.

Message cité 1 fois
Message édité par marllt2 le 09-05-2009 à 07:18:42
n°6950205
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 09-05-2009 à 07:16:04  profilanswer
 

j'espère que la prochaine finesse de gravure chez TSMC sera mieux maitrisée que ce 40bm :-/


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6950208
mikestewar​t
Air Roll Spinnin'
Posté le 09-05-2009 à 07:30:16  profilanswer
 

marllt2 a écrit :


Oui, les GT218, GT216, et GT215.


 
La catastrophe...
 
Justement, la conclusion de The Inq :
 

Citation :

Nvidia is not competitive, and it has nothing in the pipeline that will fix the problem for the next three to four quarters.


 
Eh beh. :/
 
 

n°6950261
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 09-05-2009 à 09:55:43  profilanswer
 

Encore de la branlette de fudzilla ?
 
Le GT300 sortirait avant le RV870 pour être premier sur dx11... :-/
 

Citation :

nVidia first to market with a DirectX 11 GPU?
5/8/2009 by: Theo Valich - Get more from this author
 
 
With the news that ATI delayed the RV870 part to 4Q'09, there are reasons why Santa Clara camp will be happy. GT300 is coming before the RV870, if TSMC does not mess up completely.
 
After the conference call last night, nVidia was feeling very confident that the company is on the right track... and there is a pretty good reason why. We spoke with several sources and they're quite optimistic that they will be able to release their DirectX 11 GPU ahead of ATI's RV870 chip.
 
According to a rumored report on Fudzilla, ATI allegedly decided to postpone their DirectX 11 until after the release of Windows 7, while our sources cited that recent rumors about slipping into 2010 were "blatant lies" and "written by a person that has no sense of reality". We will refrain from comments and we usually dislike it if a fellow journalist is being dissed, unless it is a person who invents things up. Charlie is usually known to be on target, but this goes against the information we know. But what is important is that according to our sources, GeForce GTX 300 series will be shipped in late 3Q 2009, targeting the Back-to-School period. We're not talking about a October-November frame, but rather August or September. Our sources were not wrong in the past, and we have no reason to believe otherwise. BUT - this is a rumor story. Until the silicon comes out, we won't know who's who.
 
Just like RV870, the reason why both companies have issues is TSMC's issues with the 40nm process, and this is a trump card for GlobalFoundries. Like any rumors, take them with a grain of salt. It is a common thing that competing manufacturers spread bad rumors about the competing company's part, but that is just the way how this game is played.


source : http://www.brightsideofnews.com/ne [...] 1-gpu.aspx


Message édité par super_newbie_pro le 09-05-2009 à 09:56:01

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6950317
mikestewar​t
Air Roll Spinnin'
Posté le 09-05-2009 à 10:58:20  profilanswer
 

C'est pas logique : le RV870 va être moins complexe que le GT300 et ATI a déjà sorti une puce en 40nm...le RV870 sera le premier, après la question est quand.
 
Leur rumeur "GT300 avant RV870" est en fait basée sur deux rumeurs : l'une provenant de Fud, qui disait qu'il y avait 2 puces, une DX10.1, l'autre DX11, qui auraient toutes deux le nom de RV870, le truc crédible...  :pt1cable: L'autre provenant de "leurs sources" qui affirment que le GT300 sera dispo avant la fin septembre...ils évoquent même Août... ( :o ) La chose ironique en plus, c'est qu'ils citent Fud pour un truc et ils sont en contradiction avec lui sur un autre : il disait il y a 2 jours que le GT300 sortira au Q4 et pas au Q3. Bref.
 
Ça tient pas la route.


Message édité par mikestewart le 09-05-2009 à 14:43:39
n°6950457
Fantryt
Posté le 09-05-2009 à 13:36:43  profilanswer
 

J'ai rien compris à ton message, mais c'est pas grave .  :D  
Mais je suis d'accord avec ta conclusion .  :D

n°6950514
bjone
Insert booze to continue
Posté le 09-05-2009 à 14:34:02  profilanswer
 

Gigathlon a écrit :


Faible mais suffisant pour ridiculiser un CPU dans le cas des échecs :o
 
Sachant que chaque coup amène un nouveau scénario où plusieurs coups sont possibles, chaque coup devant être évalué en terme de gain/perte/enchainements possibles.
 
C'est un truc auquel j'avais déjà réfléchi il y a 4 ans, mais j'ai jamais approfondi la question des notations (échec, prise, perte... théoriquement la prise et la perte doivent se compenser, mais une perte à un coup n'est pas forcément compensée par une prise au coup suivant, et il reste l'échec difficilement "chiffrable", raison pour laquelle les jeux les plus basiques le recherchent en priorité)


 
Oui mais c'est pas forcément comme de l'IA d'un jeu vidéo.
 
Le code d'une IA est contextuel, pas générique. L'IA dans un FPS, un simulateur d'avion et un jeu d'échec sont différents.
Donc le profil de performance entre GPU & CPU ne sont pas figés dans le marbre.
 

n°6950530
mikestewar​t
Air Roll Spinnin'
Posté le 09-05-2009 à 14:54:39  profilanswer
 

Fantryt a écrit :

J'ai rien compris à ton message, mais c'est pas grave .  :D  
Mais je suis d'accord avec ta conclusion .  :D


 
J'ai tenté de reformuler mais c'est pas des masses mieux.  :D  
 
Enfin tout le monde a l'air d'accord c'est l'essentiel.  :o

n°6950569
Gigathlon
Quad-neurones natif
Posté le 09-05-2009 à 15:49:12  profilanswer
 

bjone a écrit :

Oui mais c'est pas forcément comme de l'IA d'un jeu vidéo.


 
C'est bien pour ça que j'avais précisé ;)
 
Les compute shaders sont utiles pour les traitements très parallélisables, même relativement complexes, typiquement la création de listes de "scores" avec pour but de décider d'une branche à prendre en toute fin d'analyse... bref, c'est pas une IA à proprement parler, mais dans certains cas on peut y trouver un gros avantage.
 
Je viens d'ailleurs de penser aux RTS, qui utilisent de plus en plus des simulations physiques relativement simples: dans ce cas la combinaison de la prise de décision et du calcul de trajectoire permettrait d'éviter certaines communications via le PCI-Express.

n°6950577
wizerty
Posté le 09-05-2009 à 15:54:52  profilanswer
 

Avant de me lapider sachez que j'ai toujours eu des CG nvidia, qu'actuellement j'ai 2 8800GTS512 en SLI et que mes cartes mères sont toutes à base de Nforce. (bon maintenant on ne pourra pas dire que je suis contre Nvidia  :sarcastic:).
 
En ce moment, crise ou pas, je trouve qu'il abuse grave chez Nvidia.
 
1° Le prix de leurs carte, plus cher que la concurrence, mais bon il continu à dominer le marché alors il aurai tord de s'arrêter  :fou:  
 
2° Il renomme tout et n'importe quoi, les 8800GTSv1 qui n'ont rien a voir avec les 8800GTSv2, les 9800GTX qui sont des copie des 8800 mais qui change de nom, rebelote pour les GTS250... après au tour de Nforce 780a qui devient le 980a sans même qu'il apporte quelque chose de plus.
 
3° Pas foutu de sortir un Nforce compatible AM3 DDR3 qui support le SLI, alors il te vendent du SLI à tour de bras "le SLI c'est beau, le SLI ça poutre..." puis toi après t'es comme un con avec une plateforme que tu peux pas mettre à jour pcq ils sortent pas de CM compatible  :o  
 
4° Pas foutu de nous dire quand ils vont sortir des nouveau produit ( CG et Nforce).
 
Quand tu pense que tout le monde utilise les mêmes fondeurs c'est quand même incroyable qu'AMD/ATI sorte des bonnes CG alors que Nvidia galère et nous sort des GPU super complexe.
 
Au final ça inspire pas trop confiance... Nvidia ferai bien de changer un peu sa politique de communication avant la sortie de son prochain monstre  :pfff:  
 
 
 

n°6950623
jesaipacki
Posté le 09-05-2009 à 16:34:36  profilanswer
 

Complétement d'accord avec toi wizerty. :jap:

n°6950701
Activation
21:9 kill Surround Gaming
Posté le 09-05-2009 à 18:26:31  profilanswer
 

pfiou alors là ça fait belle lurette que j ecoute plus la com nvidia... les marketeux nvidia vivent sur une autres planètes rempli de champi  
 
moi c est les drivers qui m interesse chez nvidia, j aurais pas la poisse avec les drivers ati à chaque fois que je veux refaire un tour chez eux
 
sauf que les ATI m'aime pas donc bon c est tout je reste avec nvidia  
les drivers nvidia m'aime bien :D


Message édité par Activation le 09-05-2009 à 18:27:02
n°6950751
bjone
Insert booze to continue
Posté le 09-05-2009 à 19:51:51  profilanswer
 

Gigathlon a écrit :


 
C'est bien pour ça que j'avais précisé ;)
 
Les compute shaders sont utiles pour les traitements très parallélisables, même relativement complexes, typiquement la création de listes de "scores" avec pour but de décider d'une branche à prendre en toute fin d'analyse... bref, c'est pas une IA à proprement parler, mais dans certains cas on peut y trouver un gros avantage.
 
Je viens d'ailleurs de penser aux RTS, qui utilisent de plus en plus des simulations physiques relativement simples: dans ce cas la combinaison de la prise de décision et du calcul de trajectoire permettrait d'éviter certaines communications via le PCI-Express.


 
Là je suis d'accord :)
 

n°6950880
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 09-05-2009 à 22:11:19  profilanswer
 

Petite news pour débuter: Le 40nm de TSMC serait en fait du 45nm "déguisé" par le service marketing.  :pfff:  
 
 

poiuytr a écrit :

Je ne veux rien faire croire. Je constate juste que pour le moment il y a 0 jeu DX11 annoncé. [:spamafote] Peut être à l'E3.

Une petite liste:

  • Battlefield 1943
  • Battlefield Bad Company 2
  • BioShock 2
  • DiRT 2
  • Dragon Age: Origins
  • Mass Effect 2
  • Splinter Cell: Conviction
  • StarCraft II: Wings of Liberty
  • Two World's 2


 
 
À propos du portage des jeux consoles sur PC:

Citation :

"I'd like to remind that games are, and will (unfortunately for PC gaming fans) quite often be limited by what is economically sensible for the developer to do; i.e. what the consoles can run. And while I'm sure next consoles will be beyond DX11's capabilities, they won't be a reality in the near future (not before 2012) and the developers are currently limited to what the 360 and PS3 have." - Markus, Remedy Entertainment

n°6950889
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 09-05-2009 à 22:18:18  profilanswer
 

Wirmish a écrit :

Petite news pour débuter: Le 40nm de TSMC serait en fait du 45nm "déguisé" par le service marketing.  :pfff:  
 
Une petite liste:

  • Battlefield 1943
  • Battlefield Bad Company 2
  • BioShock 2
  • DiRT 2
  • Dragon Age: Origins
  • Mass Effect 2
  • Splinter Cell: Conviction
  • StarCraft II: Wings of Liberty
  • Two World's 2


À propos du portage des jeux consoles sur PC:

Citation :

"I'd like to remind that games are, and will (unfortunately for PC gaming fans) quite often be limited by what is economically sensible for the developer to do; i.e. what the consoles can run. And while I'm sure next consoles will be beyond DX11's capabilities, they won't be a reality in the near future (not before 2012) and the developers are currently limited to what the 360 and PS3 have." - Markus, Remedy Entertainment


Pour les jeux DX11 j'en sais rien mais pour le 45nm déguisé en 40nm c'est grave, très grave commercialement parlant si les clients ont signé pour du 40nm. As-tu des sources ? AMD serait-il au courant ou bien marcheraient-ils également dans ce jeu marketing en toute connaissance de cause ?


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6950899
Gigathlon
Quad-neurones natif
Posté le 09-05-2009 à 22:24:56  profilanswer
 

super_newbie_pro a écrit :

Pour les jeux DX11 j'en sais rien mais pour le 45nm déguisé en 40nm c'est grave, très grave commercialement parlant si les clients ont signé pour du 40nm. As-tu des sources ? AMD serait-il au courant ou bien marcheraient-ils également dans ce jeu marketing en toute connaissance de cause ?


C'est juste que le 40nm a un temps été appelé 45GS (ou quelque chose d'approchant), sachant que ça n'est qu'un shrink purement optique histoire de réduire les coûts en ne développant que le 40nm plutôt que de faire les 2 gravures à la suite pour cette même gamme.
 
La taille du RV740 est la preuve qu'il ne peut pas s'agir d'une gravure 45nm, puisque même avec un shrink parfait (quasi impossible) il ne pourrait y faire que 150mm², or il fait moins de 140mm².

n°6950901
marllt2
Posté le 09-05-2009 à 22:26:04  profilanswer
 

http://www.brightsideofnews.com/ne [...] stock.aspx

Citation :

Risks for 2Q involve nVidia's trailing position in its switch to 40nm - analysts expect that the "damn the torpedoes, full speed ahead" approach on the GT300 architecture backfired on the volume 40nm parts


 :lol:
 

super_newbie_pro a écrit :

pour le 45nm déguisé en 40nm c'est grave, très grave commercialement parlant si les clients ont signé pour du 40nm.


Mais non, TSMC n'a pas renommé le 45nm en 40nm pour apâter ses clients.  
 

Gigathlon a écrit :


C'est juste que le 40nm a un temps été appelé 45GS (ou quelque chose d'approchant), sachant que ça n'est qu'un shrink purement optique histoire de réduire les coûts en ne développant que le 40nm plutôt que de faire les 2 gravures à la suite pour cette même gamme.


http://img4.imageshack.us/img4/6192/tsmcroadmap.jpg


Message édité par marllt2 le 09-05-2009 à 22:30:40
n°6950906
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 09-05-2009 à 22:30:20  profilanswer
 

Gigathlon a écrit :

C'est juste que le 40nm a un temps été appelé 45GS (ou quelque chose d'approchant), sachant que ça n'est qu'un shrink purement optique histoire de réduire les coûts en ne développant que le 40nm plutôt que de faire les 2 gravures à la suite pour cette même gamme.


De ce que j'ai compris, TSMC ne calcule pas sa finesse de gravure à partir des même composants qu'Intel ou AMD.
Faut savoir que le 40nm ne représente pas la taille de tous ce qui est gravé dans la puce.
C'est plutôt une "moyenne" puisque par exemple, dans les CPU en 65nm d'Intel on retrouvait des "gates" de 40nm.
Dans le cas de TSMC, ils ont utilisé la taille des transistors formant les p-channels au lieu des n-channel qui servent généralement à classifier la finesse de gravure dans l'industrie.
 

Gigathlon a écrit :

La taille du RV740 est la preuve qu'il ne peut pas s'agir d'une gravure 45nm, puisque même avec un shrink parfait (quasi impossible) il ne pourrait y faire que 150mm², or il fait moins de 140mm².


On avait pas de RV740 en 55nm, alors comment fais-tu pour savoir que son "shrink" est parfait ou pas ?  :??:

Message cité 1 fois
Message édité par Wirmish le 09-05-2009 à 22:40:43
n°6950910
marllt2
Posté le 09-05-2009 à 22:31:58  profilanswer
 

poiuytr a écrit :

Je constate juste que pour le moment il y a 0 jeu DX11 annoncé. Peut être à l'E3.

Wirmish a écrit :

Une petite liste:
 

  • Battlefield 1943
  • Battlefield Bad Company 2
  • BioShock 2
  • DiRT 2
  • Dragon Age: Origins
  • Mass Effect 2
  • Splinter Cell: Conviction
  • StarCraft II: Wings of Liberty
  • Two World's 2

source ?


Message édité par marllt2 le 09-05-2009 à 22:32:14
n°6950911
Activation
21:9 kill Surround Gaming
Posté le 09-05-2009 à 22:34:11  profilanswer
 

moi j aurais bien vu diablo 3 pour dx11 histoire de booster l'IA  
 
et un sup commander 2 pour booster le nombre d'unité + IA

n°6950913
Gigathlon
Quad-neurones natif
Posté le 09-05-2009 à 22:35:43  profilanswer
 

Wirmish a écrit :


On avait pas de RV740 en 55nm, alors comment fais-tu pour savoir que son "shrink" est parfait ou pas ?  :??:


Tu vires 30mm² (2 clusters + 8 TMU + 10% de bonus) au RV770, tu réduis de 33% la taille obtenue.
 
Même avec le bus plus petit il est inconcevable qu'ils aient pu gagner plus de 10mm² (ce qui représenterait ~55M de transistors).

Message cité 1 fois
Message édité par Gigathlon le 09-05-2009 à 22:38:22
n°6950925
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 09-05-2009 à 22:47:03  profilanswer
 

Y'a trop de variables pour affirmer quoi que ce soit.
 
Exemples:
1. Le 55nm annoncé par TSMC était en fait du 56nm, ou du 58nm.
2. Le RV740 n'utilise pas exactement les mêmes transistors que les puces en 55nm.
3. AMD a optimisé certains trucs ou diminué la taille de certains caches.
4. Le bus plus petit élimine plus de transistors que tu ne le crois.
5. Un mix de tout ça.
 
 

Citation :

If you look at contacted gate pitch - this basically determines how tightly you can pack transistors that you have actually wired up to circuits - there is hardly any difference between Intel's 45nm process and what TSMC claims to be its 40nm process. That comes in at 160nm, with TSMC being very slightly wider at 162nm.


Le 45nm d'Intel serait en fait plus petit que le "40nm" de TSMC.  :heink:


Message édité par Wirmish le 09-05-2009 à 22:49:20
n°6950928
jesaipacki
Posté le 09-05-2009 à 22:49:21  profilanswer
 

Lol 28nm en 2010.

n°6950933
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 09-05-2009 à 22:54:46  profilanswer
 

jesaipacki a écrit :

Lol 28nm en 2010.


Début 2010 selon la roadmap.
Désolé mais j'y crois pas une seconde.
 
Production des GPU d'ATi en 32nm chez GlobalFoundries (ex-AMD) au 2e trimestre 2010.
Premiers samples en 28nm prévu vers la fin de 2010, toujours chez GlobalFoundries.
 
Espéront que le 32/28nm de GlobalFoundries soit un véritable 32/28nm.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR