la série 4000 n'apportera pas grand chose pour l'AI art avec Python. Essentiellement ça se situe sur la Vram, donc j'ai essayé avec une RTX 3070 8 go, une RTX 3060 12 go et une RTX 3090 24 go. La 3060 permettait de générer de plus grandes images que la 3070.
Donc le plan le moins cher est la RTX 3090 à 24go parce qu'on peut la trouver vers 1500 euros. Si tu as beaucoup d'argent tu peux acheter une carte pro nvidia avec 48 go de vram, et tu pourras faire certainement encore plus grand même si Cuda et Pytorch viennent quand même prendre en proportion plus de place. Disons que le double de Vram ne permet pas de générer une image deux fois plus grande.
Si tu regardes sur google collab, tu peux choisir tes GPU et ce sont des GPU spécifiques, des tesla. si tu fais ça en local la meilleure solution est la RTX 3090 24 go de ram. La tesla K80 a aussi 24go de vram mais ne prendra pas les prochaines versions de Cuda.
Il faut savoir aussi que plus tu utilises de model (visions transformers) et plus ça prend de Vram.
Message édité par mazinga le 04-08-2022 à 20:48:24