Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2458 connectés 

  FORUM HardWare.fr
  Graphisme
  Infographie 3D

  Quadro ou GeForce sur 3dsmax ???

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

Quadro ou GeForce sur 3dsmax ???

n°1157953
the_explod​ing_fist
je suis donc je me lave
Posté le 09-06-2013 à 04:34:42  profilanswer
 

Bonjour !  
 
Je suis graphiste confirmé 2D et débutant en 3D, étant en plein questionnement sur les performances de cartes graphiques pour les applications que je souhaite utiliser, j'en appelle aux connaissances de ceux qui pourront m'aider à y voir plus clair... D'avance, merci !  
 
 
Alors voilà, comme je l'ai dit, je débute dans la 3D. J'utilise un Mac Pro Xeon 8-Core dans lequel j'ai placé il y a quelques mois, une carte graphique "nVidia GeForce GTX 480" bidouillée bien sur puisqu'elle n'existe pas chez Mac. Cela dit ça fonctionne parfaitement, parfaitement reconnue par le système et reconnue par Windows également. Donc impec. Mon problème est que cela reste une GeForce et que je ne sais pas trop ce que ça vaut sur les applications de développement 3D, en effet je souhaite utiliser 3dsMax zBrush Mudbox entre autres. La 480 étant tout de même le haut de gamme des Fermi c'est pas de la daubasse mais sur 3dsMax ça vaut quoi ?? Bonne question...  
 
C'est suite à ça que je me suis intéressé à une carte qui a présent devient accessible, qui est la Quadro FX 4800, ce type de carte étant réputé pour être "Pro" est censé apporter des performances plus élevées qu'une GeForce... Oui mais jusqu'où ? comparé à une GTX 480 (tout de même!) ??  
Faut pas oublier que la Quadro FX 4800 n'est qu'une GeForce GTX 260 unlockée pour être Quadro, je ne l'ignore pas... sauf que j'ai jamais testé...  
pffff je suis pas avancé...  
 
Alors j'ai quand même cherché, j'ai vu sur différentes lectures que les Quadro FX n'apportaient rien ( alors à quoi bon elles existent ?... ), que pour ceci est cela ça valait pas le coup, que c'était de la merde déguisée,... etc etc ... Difficile d'en tirer un avis réellement objectif, sans compter ceux qui parlent alors qu'ils ne savent rien...  
 
Moi je voudrais des avis de vrais connaisseurs et des personnes qui ont une réelle expérience sur tel et tel matos pour savoir ce que je peux en attendre... Alors ok, je compare deux cartes graphiques de différentes générations, avec deux vocations différentes mais au fond, l'application visée est la même... Alors y'a moyen de comparer tout de même...  
 
Je rappelle que je suis sur mac pro mais que je compte utiliser les logiciels 3D en mode PC sous Windows 7, qui sont 3dsmax + zBrush + Mudbox + Photoshop + After Effects (pour info)  
 
ce que j'attends c'est un indice de performance, de ce que peut apporter CUDA sur la quadro FX 4800 et sur la GTX 480 et laquelle s'en sort le mieux, si au niveau de la modélisation c'est beaucoup plus fluide sur l'une ou sur l'autre... etc etc... La meilleure des deux quoi... :-)  
 
Bon, merci pour la lecture, merci à ceux qui sont allés jusqu'au bout et merci à ceux qui vont pouvoir m'aider...  
 
Et bonne année à tous.

mood
Publicité
Posté le 09-06-2013 à 04:34:42  profilanswer
 

n°1157954
the_explod​ing_fist
je suis donc je me lave
Posté le 09-06-2013 à 05:53:32  profilanswer
 

j'ai trouvé ce "battle" entre une petite carte à petit prix Quadro 600 (165 €) contre une GTX 670, eh ben rien que ça, ça fait peur... En fait GTX c'est vraiment encore plus pourri que je m'imaginais...
Ca va me donner ce même genre de résultat entre les deux cartes dont j'ai parlé plus haut ???
 
http://www.youtube.com/watch?v=kl4yNCgD3iA

n°1157969
Kebooz
Attrape-mouche
Posté le 10-06-2013 à 00:04:12  profilanswer
 

Yo l'ami, j'ai eu l'occaz de bosser sur 3DS avec une quadro il y a plusieurs années. Tout va tellement vite que je ne mettrais pas ma main à couper qu'à l'heure actuelle la donne soit la même mais j'aimerais tout de même te poser une question toute bête :

 

Pourquoi t'as décidé d'installer une GTX 460 dans ton mac?

 

Je te demande ça parce que si c'est pour pouvoir jouer, il est évident que je te déconseille alors fortement de passer sur une quadro sous peine d'être dégouter niveau jeu.

 

Si ce n'est pas le cas... Dans un viewport de 3ds max je pense pas que qu'une quadro FX 4800 rivalisera avec ta gtx 460. Même avec des drivers optimisés pro. Certes la quadro dispose d'un peu plus de RAM mais la GTX460 la surpasse sur les cuda cores et la bande passante ce qui devrait suffire à rattraper son retard. Au minimum.

 

Sans parler des moteurs de rendus temps réels comme V-Ray RT ou, si je ne m'abuse, I-Ray développé par MentalRay lui même détenu par... Nvidia.

 

Je bosse sur 3DS depuis un bail maintenant. J'ai une GTX 670, parce que je suis joueur, j'ai jamais eu à me plaindre et si ce fut le cas c'est également parce que j'optimisais mal la gestion de mes modèles dans mon viewport.

 

Aujourd'hui on peut bosser avec des calques, des proxies, des bounding box (des yukulélés et des gloubiboulga aussi lol). Bref un tas de trucs qui permettent tout simplement d'éviter de mettre sa carte sur les rotules. Alors si tu veux mon avis, je préfère investir la tune d'une quadro dans une render farm maison et optimiser mes calques quand je bosse.

 

Parce qu'au final c'est le processeur qui finira par calculer ton rendu, enfin pendant encore quelques années :) (et pour les particuliers, je parle pas des boites qui tournent avec des Tesla évidemment, mais on joue déjà pas dans la même cour)

 

Take care!

 

Kebooz.


Message édité par Kebooz le 10-06-2013 à 00:05:38

---------------
Achats/Ventes
n°1157973
the_explod​ing_fist
je suis donc je me lave
Posté le 10-06-2013 à 09:55:28  profilanswer
 

merci pour ta réponse
 
Ben la raison qui m'a poussé à mettre une GTX 480 dans mon mac c'est que je voulais justement une carte performante, pas pour le jeu parce que ça j'en ai un peu rien à foutre, bien que la GTX 480 soit quand même un haut de gamme et qu'elle est bien performante.
Non pour le jeu, je me suis offert un i7 3770K avec 16Go et une GTX560Ti, bien plus qu'il n'en faut et en plus je prends jamais le temps de jouer. Du coup il est pas impossible qu'elle devienne une machine pour bosser plutôt !
 
Donc à ton avis, finalement que ce soit une quadro 4800 ou une 5800, ce sont des cartes complètement larguées ? sans compter qu'elles sont coûteuses de surcroît évidemment...
 
 
Tiens justement, vu que tu as une GTX 670 est-ce que tu peux justement regarder cette petite vidéo et me dire ce que tu en penses...
Au cours de mes recherches, j'ai voulu voir ce que valait une GeForce face à une Quadro et je suis un peu tombé sur le cul tout de même...
Alors Ok la GTX 670 s'en sort plutôt bien, je trouve, mais une petite carte à pas cher comme la Quadro 600 est bien plus balaise du coup... A ce niveau là, je me demande si je vais pas revendre tout mon bordel mac et me remettre sur PC une bonne fois, juste avec une Quadro 600 !!!! non mais allo quoi ...!!!

n°1157974
the_explod​ing_fist
je suis donc je me lave
Posté le 10-06-2013 à 09:56:51  profilanswer
 

oops, j'avais oublié le lien pour toi :
https://www.youtube.com/watch?v=kl4yNCgD3iA

n°1157978
genghis77
-_-'
Posté le 10-06-2013 à 11:22:51  profilanswer
 

vous oubliez une chose aujourd'hui les moteurs de rendu tendent vers la tendance CUDA en nommant Octane par exemple.
 
avec une quadro 600 c'est mort.
 
moi a choisir entre une quadro et une geforce je prendrais directement la gtx pour sa plage d'utilisation beaucoup plus etendue


---------------
Je sais que je plais pas à tout le monde... mais quand je vois à qui je plais pas... je me demande si ça me dérange vraiment
n°1157980
nepheast
Posté le 10-06-2013 à 15:54:57  profilanswer
 

genghis77 a écrit :

vous oubliez une chose aujourd'hui les moteurs de rendu tendent vers la tendance CUDA en nommant Octane par exemple.
 
avec une quadro 600 c'est mort.
 
moi a choisir entre une quadro et une geforce je prendrais directement la gtx pour sa plage d'utilisation beaucoup plus etendue


 
Absolument ! De plus  je consulte régulièrement 3Dvf...  et là bas, la plupart des freelances ont tous des GTX.. visiblement ça ne leurs pose aucun pb de bosser en pro avec des cartes grand public, les quadro ont l'avantage avec les fonctions câblés en hard et des drivers certifiés, mais si les GTX étaient véritablement de la merde pour bosser, ..  je crois que ça se saurait.  :o
 
En parlant des softs précisés un plus haut, Zbrush ne tire partie d'aucune accélération  3D ou autre méthode de calcul ( pas plus OpenGL que Direct X et encore moins de cuda),  pour s'en rendre compte, il suffit de monitorer la carte vidéo ou plus simplement de lire le system requirements de ZB 4.5  
cadeau  :D  
Highly Recommended:
OS: Windows Vista/Windows 7 32-bit/64-bit
CPU: Pentium D or newer (or equivalent such as AMD Athlon 64 X2 or newer) with optional multithreading or hyperthreading capabilities.
RAM: 2048MB required for working with multi-million-polys. 6 GB recommended. (ZBrush 4 is a 32-bit application, but can use up to 4 GB of system RAM)
HDD: 16GB of hard drive free-space for the scratch disk.
Pen Tablet: Wacom or Wacom compatible.
Monitor: 1280x1024 monitor resolution or higher (32 bits)


---------------
Deleted
n°1157981
the_explod​ing_fist
je suis donc je me lave
Posté le 10-06-2013 à 15:54:58  profilanswer
 

oui je comprends,... mais que dire justement à la vue de la vidéo du lien que j'ai mis plus haut ??!!
La Quadro 600 me semble être bien plus fluide et rapide que la 670...
Enfin je dis "il me semble", c'est à l'évidence vrai...

n°1157982
the_explod​ing_fist
je suis donc je me lave
Posté le 10-06-2013 à 16:04:09  profilanswer
 

de là à dire que c'est de la merde, j'ai jamais dit ça
 
comme j'ai pas l'intention de jouer avec ma machine, je ne veux juste pas avoir à subir les inconvénients liés aux cartes de gamer, tant qu'à faire...  
 
Et puis pour en revenir encore à la vidéo comparative de la quadro 600 face à la GTX 670, la comparaison du prix donne à réfléchir...
170€ la quadro 600 en 1Go
400€ la GTX 670 en 4Go
 
l'une est supra moins chère que l'autre, certes moins de ram mais est plus rapide et plus performante sur les softs de 3D...
Bon, la 670 est vraiment pas dégueu, mais bon l'écart de prix pour moins rapide... je suis très dubitatif quand même...

n°1157984
nepheast
Posté le 10-06-2013 à 16:16:49  profilanswer
 

Le pb et c'est là qu'est votre erreur,  le bench en vidéo est une scène hyper cleané de tout historique et autre truc qui pourrais faire foiré le test en gros ça ne représentera jamais une scène de taff , mais surtout la scène tien spécifiquement dans les 1go de ram de la quadro 600, chose qui fausse complètement le rapport entre une carte à 160 € et une autre 400 €.
 
Passé  une consommation de 1go de ram vidéo  les perf de la quadro  vont s'effondrer.. c'est logique,  là ou la GTX saura plus ou moins maintenir les perfs visible jusqu'à remplissage de ses 4go ram .


Message édité par nepheast le 10-06-2013 à 16:17:32

---------------
Deleted
mood
Publicité
Posté le 10-06-2013 à 16:16:49  profilanswer
 

n°1157985
the_explod​ing_fist
je suis donc je me lave
Posté le 10-06-2013 à 16:20:53  profilanswer
 

@nepheast : certes, j'en conviens... 1Go c'est très peu... au pire, juste pour la modélisation... non ?

n°1157986
nepheast
Posté le 10-06-2013 à 16:32:46  profilanswer
 

Dans l'absolu je pourrais dire oui, mais ... reste à voir la complexité des modèles et des scènes que tu va créer, manipulé etc ..  1 go c'est très mince, et pour un render  GPU c'est même pas la peine, là ou tout les composants de la scènes sont loader dans la ram vidéo .. oup's .


---------------
Deleted
n°1157989
genghis77
-_-'
Posté le 10-06-2013 à 16:51:49  profilanswer
 

encore la question se poserait sur une quadro de derniere generation incluant les unites de calculs CUDA je dis pas mais là c'ets pas le cas non?

 

edit : ah si apparemment elle est de la generation fermi

 

edit 2 : 96 coeurs CUDA :lol:

 

pour infos la 660 ti 2Go EVGA
http://www.materiel.net/carte-grap [...] 90884.html

 

a plus de 1500 unites de calculs


Message édité par genghis77 le 10-06-2013 à 16:57:35

---------------
Je sais que je plais pas à tout le monde... mais quand je vois à qui je plais pas... je me demande si ça me dérange vraiment
n°1157991
nepheast
Posté le 10-06-2013 à 16:55:53  profilanswer
 

Citation :

comme j'ai pas l'intention de jouer avec ma machine, je ne veux juste pas avoir à subir les inconvénients liés aux cartes de gamer, tant qu'à faire...


 
Juste par curiosité, tu parles de quels inconvénients ?


---------------
Deleted
n°1158007
the_explod​ing_fist
je suis donc je me lave
Posté le 10-06-2013 à 21:47:55  profilanswer
 

ben quand je dis inconvénients, dans mon langage de débutant, c'est pour le fait que les cartes "gamer" sont pas trop faites à la base pour faire du développement d'image. Elles sont prévues pour être très fortes dans les jeux et bridées (lisse) pour tout ce qui est pro. Enfin c'est ce que je pense savoir, à moins que je ne me trompe... dis-moi sinon...
En fait au final je comprends pas dans ce cas à quoi servent les quadro et autres Tesla si on en arrive toujours à dire qu'il faut prendre une GeForce...
J'suis paumé là dedans, j'ai juste pas envie de me retrouver avec un matériel bof bof qui serait juste "bien" pour ce que je veux faire et très balaise dans le jeu alors que je n'ai aucune intention de jouer avec.

n°1158011
nepheast
Posté le 10-06-2013 à 22:49:12  profilanswer
 

the_exploding_fist a écrit :

ben quand je dis inconvénients, dans mon langage de débutant, c'est pour le fait que les cartes "gamer" sont pas trop faites à la base pour faire du développement d'image. Elles sont prévues pour être très fortes dans les jeux et bridées (lisse) pour tout ce qui est pro. Enfin c'est ce que je pense savoir, à moins que je ne me trompe... dis-moi sinon...


 
Il n'y a pas d’inconvénient à utiliser des cartes grand public, certes ces cartes ne disposent pas de drivers certifiés et surtout sont castrés de certaines fonctions hardware, la différence ce fait là à mon sens, pour le reste comme quoi les quadro seraient de meilleur conception toutsa ... ouais ouais  [:paco fpg:1]  biensur  :D.  
 
 

the_exploding_fist a écrit :

En fait au final je comprends pas dans ce cas à quoi servent les quadro et autres Tesla si on en arrive toujours à dire qu'il faut prendre une GeForce...
J'suis paumé là dedans, j'ai juste pas envie de me retrouver avec un matériel bof bof qui serait juste "bien" pour ce que je veux faire et très balaise dans le jeu alors que je n'ai aucune intention de jouer avec.


 
Les quadro ne sont pas inintéressantes loin de là, mais la quadro 600  est vraiment trop limite niveau mémoire et cores cuda, si je devrais acheter une quadro ce serait  un modèles moyen haut gamme, histoire d'avoir une carte avec un gpu  
correct(nombre de cores cuda) mais surtout au minimum 3 go de ram, et c'est la que ça coince, parce que les prix sont complètement démesuré.
 
Ex: une quadro dans le style de ce que j'évoquais dans mes propos http://www.ldlc.com/informatique/p [...] -8590.html  et ça reste du moyen de gamme, malgré tout quasiment 1200 € :/ , et c'est rien en comparaison avec le prix des modèles K5000 K6000  :lol:  
 
Les offres commercial au niveau des quadro c'est juste une vaste blague... soit complètement à la rue soit hors de porté  du commun des mortels, et je pense que c'est à ce titre que les quadro se trainent une réputation de monumental arnaque.  :D
Maintenant la question importante..  as tu réellement besoin d'une quadro pour ce que tu souhaites faire ?
 
edit: Tesla oué je connais de nom,   mais je ne m'avancerais pas, ne connaissant pas le pourquoi du  comment .


Message édité par nepheast le 11-06-2013 à 00:07:06

---------------
Deleted
n°1158012
the_explod​ing_fist
je suis donc je me lave
Posté le 11-06-2013 à 01:43:03  profilanswer
 

mouais, difficile de trouver un sujet relatant des Tesla, sur le papier ça a l'air d'une vraie folie et même en vidéo sur youteub, on trouve qu'une seule démo (avec la BMW) assez furieuse sur une Tesla C2050 qui elle-même est dépassée dans son architecture Fermi, 3 ans quand même la carte. Mais voilà, comme je disais c'est furieux mais comparativement j'ai pas d'exemples similaires sur des GTX alors pas facile de comparer... Et puis Tesla, bonjour la douleur anale au niveau du prix.
 
Mes besoins pour l'instant se limitent à 3DSMax, Mudbox, zBrush, Iray et d'autres à venir...
 
Ce soir même j'ai discuté avec un type qui m'a branché sur l'inutilité de mon projet en me proposant de me monter un cluster de plusieurs PS3 reliées à mon pc par un switch 48Mbps, un truc assez monstrueux mais qui apparemment fait fureur un peu partout... Qui viendrait au final à rendre inutile l'investissement d'un calculateur Tesla...
Je suis dubitatif...

n°1158013
the_explod​ing_fist
je suis donc je me lave
Posté le 11-06-2013 à 01:44:07  profilanswer
 

Sinon y'a Titan... furieuse aussi celle-là...  
 
z'en pensez quoi ??

n°1158014
nepheast
Posté le 11-06-2013 à 03:26:10  profilanswer
 

the_exploding_fist a écrit :

Sinon y'a Titan... furieuse aussi celle-là...  
 
z'en pensez quoi ??


 
rien :)... certes elles est puissante, mais ça reste une carte de joueur, donc avec les même limitations que les autres, et bon le prix.. encore un bel objet a vocation de lubrification de rectum.   :D  


---------------
Deleted
n°1158027
the_explod​ing_fist
je suis donc je me lave
Posté le 11-06-2013 à 13:18:43  profilanswer
 

ouais je le sentais bien comme ça... mais si on considère qu'une GTX est satisfaisante alors dans ce cas pourquoi pas la Titan non ?

n°1158028
genghis77
-_-'
Posté le 11-06-2013 à 13:39:34  profilanswer
 

bah parce qu'on est plus du tout dans la meme gamme de prix :D


---------------
Je sais que je plais pas à tout le monde... mais quand je vois à qui je plais pas... je me demande si ça me dérange vraiment
n°1158032
nepheast
Posté le 11-06-2013 à 15:59:33  profilanswer
 

the_exploding_fist a écrit :

ouais je le sentais bien comme ça... mais si on considère qu'une GTX est satisfaisante alors dans ce cas pourquoi pas la Titan non ?


 
Effectivement pourquoi pas ! si tu as les moyens tu ne seras pas déçu, la titan possède 2688 cores cuda et 6 go de ram , de quoi te faire plaisir et bosser tranquillou pendant pas mal d'années.  


---------------
Deleted
n°1158040
genghis77
-_-'
Posté le 11-06-2013 à 16:51:42  profilanswer
 

au final on est tous d'accord pour dire qu'une gtx est plus interessante qu'une quadro (en prenant une quadro 600 comme référence de gamme)
 


---------------
Je sais que je plais pas à tout le monde... mais quand je vois à qui je plais pas... je me demande si ça me dérange vraiment
n°1158066
the_explod​ing_fist
je suis donc je me lave
Posté le 12-06-2013 à 10:00:15  profilanswer
 

bon, ben Titan alors... je change tout mon bordel c'est décidé...
5x

n°1158200
Titi95fr
Posté le 14-06-2013 à 15:55:16  profilanswer
 

Bonjour,
Je vais te parler en connaissance de causse car beaucoup parlent sans savoir ou avec juste des "j'ai entendu..."
 
J'ai 2 stations de travail, une avec une quadro 5000 (2.5go) et une autre station avec une GTX680 OC (1127mhz) 4go.
 
Je ne travail pas sur 3dsmax mais sur Autocad 2014 et sur Lumion 3.2pro (un peu de photoshop)
 
Si je ne me trompe pas Autocad utilise le moteur mental ray (depuis la V2007) comme 3Dsmax.
 
Et je peu te dire que ma GTX 680 fonctionne bien mieux sur autocad, je ne te parle même pas de Lumion qui lui fonctionne en GPU et c'est carrément énorme la différence.
 
Je suis en train de préparer une prochaine station de travail pour la fin de l'année, mon choix s'oriente sur une GTX titan
 
Pour info j'ai bien les derniers pilotes (les ODE) a chaque fois sur chacune , je suis abonnée Nvidia pour les recevoir.
 
petit clein d'oeil :
Pour ceux qui pensent qu'on ne fait pas de 3D sous autocad
voici 2 exemples que j'ai fait dernièrement (full autocad)
pour le boulot
http://i69.servimg.com/u/f69/13/12/60/77/chauff13.jpg
pour le perso
http://i81.servimg.com/u/f81/13/12/60/77/92ps10.jpg


Message édité par Titi95fr le 19-06-2013 à 09:19:54

---------------
Mon Blog
n°1158318
neoartek
Posté le 19-06-2013 à 04:53:32  profilanswer
 

Salut !
 
Petite contribution à ta question.
Pour ma part je modélise sous Zbrush, 3dsmax, fait du rendu sur 3dsmax et je suis spé Vray depuis quelques années. Je monte sous adobe première, et creative suite c'est mon dada...
 
J'ai testé tout plein de config: Pro, grand public, pc portable... crayon et papier...
 
A la maison j'ai Quadro 5000, Quadro 4000, et GTX 660 ti pour bosser.
 
Donc je crois que je peux t'éclairer un peu. Tout dépend en fait de " comment " tu souhaites avancer dans ces logiciels.
 
Quadro ou Geforce??? Et bien je dirai les deux !!!
 
1- D'une part, on prend le cas de Vray.
Vray en mode RT permet une prévisual super rapide de la scène ( avec des choses non prises en charge tout de même). Géré soit en Open Cl ( attention plein de cartes dites Open Cl ne sont pas prise en charge par Vray, un message d'erreur apparait). Ou géré par les coeurs CUDA ( même remarque que précédemment).
 
Par conséquent pour Vray RT, la vitesse d'affichage dépend donc du nombre de coeur CUDA.
 
Mais alors faut prendre du Geforce alors?
 
Euh... oui et non. Les gtx vont permettre d'avoir une prévisual nettement plus rapide que quadro, compte tenu de leur processeur de flux beaucoup plus conséquent.
 
Mais là où il faut différencier le calcul de la machine(carte ), et le travail. C'est qu'au moment où Vray RT est en phase de calcul, une énorme partie de la bande passante de l'affichage est utilisée, et donc naviguer, déplacer les objets devient vite lourd et difficile. Voir un enfer...
 
Par conséquent, une deuxième carte est primordiale, le calcul CUDA étant déversé sur la carte aux coeurs CUDA. Il faut une carte qui ne fera que de l'affichage pur et dur. ( Coché dans panneau Nvidia la carte CUDA pour les calculs )
 
Et là mon choix se porte sur de la Quadro en seconde carte ( carte principale en fait ).
 
Pourquoi??
 
Car modéliser avec de la carte pro, est je pense plus naturel ( c'est subjectif ) qu'avec une carte gamer. Car tout est fluide, tout est précis, on peut choisir plein de paramètres que n'offre pas forcément les cartes grands publiques.
 
Sur une échelle de 0 à 100, je dirai en modélisation pur sous 3dsmax. Je suis satisfait à 90 % avec une Gtx et 95 % avec une Quadro... Avantage grâce au driver Nitrous plus " pertinent " sous Quadro que sous GTX. Mais c'est vraiment minime...
 
Pour un prix souvent doublé, ça n'a pas d'intérêt. Surtout si le budget est limité...
 
De plus Quadro, dans le cas de 3dsmax, ben... ça n'apportera du sens que sur de la modélisation, du moins le travaille pur dans le viewport. Viewport type Open Gl, ou driver spécifique.
 
Quelqu'un va peut être me dire que dans ce cas, pour du viewport pur GTX suffit, voir même carrément une Firepro W7000 ou w8000???? Au lieu de Quadro???
 
Et bien, en fait Firepro met une claque de malade à quadro en performance viewport. Mais l'inconvénient dans ce cas, c'est que lorsqu'on associe une Firepro et une GTX ( pour cuda )... Vray plante car il ne peut faire la liaison entre AMD et NVIDA. ( et oui j'ai testé... et ça marche pas du tout, 3dsmax Freeze complêment. Reboote de l'ordi à la hache...
 
Pour conclure rapidement.
Pour 3dsmax+VRAY RT: 2 cartes
1 pour la modélisation viewport ( Quadro si le budget est là )
1 pour booster l'affichage dans la fenêtre de Vray RT ( GTX avec beaucoup, mais vraiment beaucoup de coeur CUDA ... on s'en fiche de l'affichage avec cette carte, faut juste regarder le nombre de coeur...)
 
Voilà c'est pour mes impressions pour Vray... :D


Message édité par neoartek le 19-06-2013 à 05:11:36
n°1158319
neoartek
Posté le 19-06-2013 à 04:58:51  profilanswer
 

OUPS....
 
Je viens de me rendre compte que tu es sous MAC !!!!!
 
Oublie ce que j'ai dis alors...
 
De plus tu n'utilises pas Vray à priori...
 
ça devient grave, Bon je crois qu'il faut que je fasse dodo... ^^

n°1158320
neoartek
Posté le 19-06-2013 à 05:10:09  profilanswer
 

Pour Zbrush...
 
même une carte graphique en carton suffit amplement.
 
Vu qu'il se fiche complètement des caractéristiques de la carte.
Faut juste assez de puissance brut avec le processeur.
 
Privilégier le nombre de noyau de calcul (threads ). ( 4, 8, 16, 32... ou...128 threads...) (vu sur un server détourné en station de travail , avec win server, soit 8 processeurs Hexa core+ HT soit 128 threads...)
 
Mais je pense 8 threads sont largement suffisant, même si tu modélises avec 100 millions de polygones....

n°1158773
tikasign
Posté le 27-06-2013 à 00:40:34  profilanswer
 

Hello,
 
Personellement, je suis en possession d'une quadro 600. Ma première vrai carte graphique (je travailler sur un portable avant -_-' ) et au niveau du viewport, vraiment aucun problème, ça a toujours était fluide et d'après ce que j'ai compris 3dsmax utilise cg et cpu pour le viewport. Par contre, niveau rendu, j'ai du, pour les cours, faire un loft entièrement en 3D (environ 1million de polygones). J'ai utilisé iRay, en rajoutant les coeurs cuda (étant donné qu'il n'y a que dans ce moteur la que l'ont puisse le faire, peut être vRay, je n'ai pas encore testé) et en somme, ça ne sert à rien... 96 petits coeurs, c'est pas grand chose par rapport à mon processeur. Et ce n'est pas un gros, i7 2600.
Et bien souvent, il me dit qu'il doit désactiver le gpu...
 
Donc je suis aussi toujours en pleine interrogation depuis l'année passée à savoir si je me fait un SLI de carte pas trop mal genre 680 ou alors si je m'achète une K4000...
J'ai toujours ces avis qui me disent que les quadro sont mieux car plus endurantes, plus résistantes à la chaleur, etc. Mais vu que de toute manière un pc est fait pour évoluer, que je pense changer maximum tous les 3ans de cartes, je me dis que je pourrais peut être utiliser toutes les ressources d'un bon SLI de GTX. A par bien sur si je gagne au lotto dans lequel cas je me fait un plaisir et soit j'achète une quadro 6000 et une Tesla c2075 uniquement rendu, soit j'achète carrément des station de travaille toute faite, déjà monté et ultra performante comme celle de l'entreprise BOXX. Avec multi cpu, multi gpu, tesle, gros ssd, watercooling... LA totale quoi !!
 
Je précise que ma scène pour le loft n'est pas clean du tout. Bon je perfectionné (backlé ?) ma mod au fur et à mesure que j'avancé dans le projet mais c'est pas super propre.
Et en moyenne, pour chaque image j'en suis à 10h de rendu sans toucher le pc...
 
Quelques rendus
 
http://www.tika-sign.be/portfolio/img/ptroisd/final1.jpg
http://www.tika-sign.be/portfolio/img/ptroisd/final2.jpg
http://www.tika-sign.be/portfolio/img/ptroisd/final3.jpg


Message édité par tikasign le 27-06-2013 à 00:42:00
n°1159329
Titi95fr
Posté le 16-07-2013 à 13:07:58  profilanswer
 

très belles réalisations tikasign
 
Et pour ce qui est des vidéos comparatives de Nvidia
 
laissez moi douter d'une tricherie :o  
Il suffit d’accélérer une des 2 vidéos, en voici une ou l'on voie l'emplacement de la sourie exactement au même endroit sur les 2 écrans  :kaola:  
http://www.youtube.com/watch?v=thj [...] ZFQMWG8zjE


Message édité par Titi95fr le 16-07-2013 à 13:08:25

---------------
Mon Blog
n°1163012
missangie
Posté le 15-12-2013 à 23:40:25  profilanswer
 

A tikasign : whaou 10 heures pour une "photo" quasi réaliste, (c' est d' ailleurs comme toujours un peut trop parfait sur le rendu, trop brillant par endroits, et ça fait maquette en dur à l' échelle maison de poupée), ce qui me laisse entrevoir la marge incroyable de progrès que devra faire encore la puissance informatique pour avoir la même qualité d' image en 1/24 de seconde, je veux dire calculé et affiché en direct, "temps réel" je crois disent les habitués...(je ne parle pas d' un film de cinéma avec 3d calculée à l' avance). On peut multiplier par 1000 je crois, et attendre 20 ans... :(
J attends toujours de voir quand le jeu vidéo atteindra la qualité d image de l infographie 3d. les quatres nvidia titan pour d un test que j' ai lu juste avant soit 4000€ ca fait juste l image en plus grand mais j' ai toujours l impression de voir la même chose depuis 15 ans ! :D. oui je sors.
 
 
Après réédition, je déchante :  
Petit calcul, un 1000 est sous estimé, comme 10 000 et 100 000 d ' ailleurs, je pouvais rajouter 3 zéros....dans 10 heures il y a  10*3600*24 = 864000  :pt1cable: . Bon un facteur de 1 000 000, ça nous fait rdv à la maison de retraite ça !! (j 'ai 31 ans)  :hello:   :)  :)

Message cité 1 fois
Message édité par missangie le 15-12-2013 à 23:55:23
n°1163014
Terminapor
I'll see you rise.
Posté le 16-12-2013 à 02:11:18  profilanswer
 

missangie a écrit :

A tikasign : whaou 10 heures pour une "photo" quasi réaliste, (c' est d' ailleurs comme toujours un peut trop parfait sur le rendu, trop brillant par endroits, et ça fait maquette en dur à l' échelle maison de poupée), ce qui me laisse entrevoir la marge incroyable de progrès que devra faire encore la puissance informatique pour avoir la même qualité d' image en 1/24 de seconde, je veux dire calculé et affiché en direct, "temps réel" je crois disent les habitués...(je ne parle pas d' un film de cinéma avec 3d calculée à l' avance). On peut multiplier par 1000 je crois, et attendre 20 ans... :(
J attends toujours de voir quand le jeu vidéo atteindra la qualité d image de l infographie 3d. les quatres nvidia titan pour d un test que j' ai lu juste avant soit 4000€ ca fait juste l image en plus grand mais j' ai toujours l impression de voir la même chose depuis 15 ans ! :D. oui je sors.
 
 
Après réédition, je déchante :  
Petit calcul, un 1000 est sous estimé, comme 10 000 et 100 000 d ' ailleurs, je pouvais rajouter 3 zéros....dans 10 heures il y a  10*3600*24 = 864000  :pt1cable: . Bon un facteur de 1 000 000, ça nous fait rdv à la maison de retraite ça !! (j 'ai 31 ans)  :hello:   :)  :)


En temps-réel, ce sont pas les même algos de calcul qui sont utilisés.
 
Le raytracing faut laisser tomber (quoiqu'il me semble avoir un truc là dessus, mais incapable de retrouver la vidéo), le path-tracing est possible (cf Brigade 2) mais ça a l'air assez bruité comme image (pas pu tester sur mon PC, CUDA obligatoire pour Brigade 2:().
 
En temps-réel, c'est plus des approximations en screen-space (Screen-space local reflection, screen-space sub surface scattering, screen-space ambiant occluding, etc,etc), qui ne prend en compte que les pixels visible (ce qui pose problème pour la réflexion et la réfraction), ou plus récemment, les Voxels (cf la vidéo du Sparse Voxel Octree Global Illumination, ça en jette :D) qui eux basent leur calculs (cone-tracing par exemple, on fait aussi des shadows map avec) sur une approximation de la scène en voxels.
 
Mais on constate quand même une sacrée amélioration, certes c'est moins frappant la différence entre ps3 & ps4 qu'entre ps2 & ps3, mais c'est déjà amplement mieux que du pré-calculé d'il y a 20 ans :D  
 
Honnêtement, je pense que d'ici 10 ans, on aura des jeux-vidéos quasiment identique à des films, wait & see. :p


---------------
Perhaps you don't deserve to breathe
mood
Publicité
Posté le   profilanswer
 


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Graphisme
  Infographie 3D

  Quadro ou GeForce sur 3dsmax ???

 

Sujets relatifs
Importation autocad vers 3dsmax problèmeInsertion 3dsmax
Problème avec les matériaux de 3dsmax3DSMAX : Problème avec un le pivot d'un mesh skinné
relflexion et refraction 3dsmaxProb résolus, a supprimer
[3Dsmax] besoin d'info pour des particules560ti ou 660 ti pour Maya et 3Dsmax???
export anim 3Dsmax vers blender[réglé][3dsmax] Équivalent du modificateur "sweap" en Français ?
Plus de sujets relatifs à : Quadro ou GeForce sur 3dsmax ???


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR