Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2937 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  42  43  44  45  46  47
Auteur Sujet :

Topic Blackwell - Nvidia Geforce RTX 5000

n°11360809
aliss
Rhyme the Rhyme Well
Posté le 24-09-2024 à 15:50:46  profilanswer
 

Reprise du message précédent :
Y-a-t'il eu des cas de cartes dont le connecteur a grillé depuis la révision 12V-2×6 ?

mood
Publicité
Posté le 24-09-2024 à 15:50:46  profilanswer
 

n°11360821
Nivacrin
Wat ?
Posté le 24-09-2024 à 16:36:03  profilanswer
 

Regla88 a écrit :


 
Oui, mais comme il a été dimensionné juste juste pour les sections des fils, le moindre faux contact / pliage va augmenter la résistance électrique, et avec 50A qui passent dedans =>  [:el_barbone:3]


 
Du coup, c'est bien avec deux connecteurs sur la même carte, c'est deux fois plus de chances de mal le brancher :o


---------------
"Il ne faut pas juger les gens sur leurs fréquentations. Judas, par exemple, avait des amis irréprochables."
n°11360824
MacIntoc
tu lis une phrase formidable.
Posté le 24-09-2024 à 17:12:12  profilanswer
 

aliss a écrit :

Y-a-t'il eu des cas de cartes dont le connecteur a grillé depuis la révision 12V-2×6 ?


Y a t'il des cartes avec un connecteur 12V-2×6 ?


---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
n°11360829
aliss
Rhyme the Rhyme Well
Posté le 24-09-2024 à 17:35:33  profilanswer
 

Aucune idée mais il me semble que l'an dernier NV devait peu à peu les remplacer.

 

Et je constate que les cas se font de plus en plus rares (déjà qu'ils l'étaient au lancement malgré l'hystérie  :o ).


Message édité par aliss le 24-09-2024 à 17:35:45
n°11360830
ravenloft
Meilleur jeu du 20ème siècle
Posté le 24-09-2024 à 17:36:42  profilanswer
 


elles sont sortit il y a quelques jours déjà. Vu que seuls les alims de 1300W et + ont 2 connecteurs de ce type, c'est ce tirer une balle dans le pied que de faire ça vu qu'une 5090 a très peu de chance de nécessiter de telles alim sachant qu'une 4090 se suffit d'une 850mhz. Je n'y crois pas une seule seconde.


---------------
Ravenloft
n°11360842
ddlabrague​tte
Posté le 24-09-2024 à 18:52:16  profilanswer
 

Gregooz a écrit :

Le but du connecteur 12VHPWR n'était-il pas d'avoir plus qu'un seul connecteur sur la carte (entre autre) ?


après, 2 connecteurs devrait suffire pour 700w sans risques, là ou il aurait fallut 3 ou 4 pcie 8 broches.  C'est comême vachement mieux   [:skaine:1]

Message cité 1 fois
Message édité par ddlabraguette le 24-09-2024 à 23:45:50
n°11360847
Rayaki
Posté le 24-09-2024 à 19:05:58  profilanswer
 

ddlabraguette a écrit :

Le DLSS allège la ram  
Le Frame gen, lui, en bouffe    


 
Ca je le confirme aussi :o


---------------
Clan Torysss.
n°11360861
Neji Hyuga
Modérateur
:grut:
Posté le 24-09-2024 à 20:05:16  profilanswer
 

Charger le modèle du DLSS en VRAM consomme de la mémoire, mais effectuer le rendu dans une définition inférieure en économise plus encore.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11360899
booba92i
Posté le 24-09-2024 à 23:41:44  profilanswer
 

MacIntoc a écrit :


Y a t'il des cartes avec un connecteur 12V-2×6 ?


 
Sur ma carte j'ai ce nouveau connecteur d'après innod3D  :o mais difficile à vérifier sans démonter la wtb d'origine, ça devrait être siglé H++
 
 
 
J'ai 1 sortie 12V-2×6 sur mon alim MSI Meg, l'autre câble livré avec l'alim c'est avec 3 câbles (450w) à brancher sur l'alim, certainement du 12VHPWR. J'ai utilisé l'adaptateur d'inno3D version 4 câbles qui délivre 600w (carte graph model ultra) branché sur les 4 sorties sur 6 de l'alim.
 
Le câble de l'alim en 12V-2×6 je le garde pour la 5090  :D  
 
 


---------------
WiiDS: Sauf que IL2 a un mode DirectX, et que ce dernier reste plus performant même sous nVidia. lol :)
n°11360902
$k-flown
Posté le 25-09-2024 à 05:33:35  profilanswer
 

Neji Hyuga a écrit :

Charger le modèle du DLSS en VRAM consomme de la mémoire, mais effectuer le rendu dans une définition inférieure en économise plus encore.


 
Oui vivement des 50X0 avec encore 8Go comme les bonne vieilles CG d'avant, c'était le bon temps.  :jap:


Message édité par $k-flown le 25-09-2024 à 05:34:45
mood
Publicité
Posté le 25-09-2024 à 05:33:35  profilanswer
 

n°11360911
Neji Hyuga
Modérateur
:grut:
Posté le 25-09-2024 à 07:56:55  profilanswer
 

C'est le ban que tu cherches ?


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11360928
jinxjab
Protection engendre sacrifice
Posté le 25-09-2024 à 09:49:59  profilanswer
 

J'adore le bashing NVidia de certains...
Un vrai régal de stupidités et de résonnements fallacieux.
 
 

Spoiler :

Par contre faut pas toucher à AMD !!! Et surtout pas faire remarquer qu'ils ont des pratiques de merdes en commun. Sinon ils mordent.

Message cité 1 fois
Message édité par jinxjab le 25-09-2024 à 09:50:17

---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.” Il s'agit donc de pseudo-sciences.
n°11360929
$k-flown
Posté le 25-09-2024 à 09:50:39  profilanswer
 

Parce que si je blague avec toi je risque plus qu'avec une autre personne du forum ou c'est le sujet qui te touche ?
 
(ça date pas de maintenant le fait que je trouve les pratiques de nvidia mesquines sur le nombre de Go embarqué, ça fait partie de toute la ribambelle des pratiques opérées pour l'obsolescence programmé et la ringardise de l'achat précédent, l'argument du dlss permettant de continuer à vendre des CG avec 8Go comme il y a 10ans alors que la demande en textures et les résolutions d'écrans ne font qu'augmenter au fil du temps c'est du génie faut le reconnaitre...)

n°11360930
Vince@ESIE​E
Posté le 25-09-2024 à 09:52:45  profilanswer
 

Yop,
 
Y'a t'il une date de présentation officielle des cartes ??


---------------
http://forum.hardware.fr/hfr/Overc [...] 5290_1.htm
n°11360931
havoc_28
Posté le 25-09-2024 à 09:54:41  profilanswer
 

Vince@ESIEE a écrit :

Yop,
 
Y'a t'il une date de présentation officielle des cartes ??


 
Non, pas pour l'instant.

n°11360954
Neji Hyuga
Modérateur
:grut:
Posté le 25-09-2024 à 11:20:40  profilanswer
 

$k-flown a écrit :

Parce que si je blague avec toi je risque plus qu'avec une autre personne du forum ou c'est le sujet qui te touche ?
 
(ça date pas de maintenant le fait que je trouve les pratiques de nvidia mesquines sur le nombre de Go embarqué, ça fait partie de toute la ribambelle des pratiques opérées pour l'obsolescence programmé et la ringardise de l'achat précédent, l'argument du dlss permettant de continuer à vendre des CG avec 8Go comme il y a 10ans alors que la demande en textures et les résolutions d'écrans ne font qu'augmenter au fil du temps c'est du génie faut le reconnaitre...)


 
On ne se souvient plus à quand remonte le dernier message un minimum constructif de ta part qui soit autre chose que du troll bas de plafond ou du cherry picking foireux.  
 
Et tu peux tout de suite ravaler ton procès d'intention car tu sais très bien ce que tu fais, tu n'es jamais dans la critique argumentée mais dans la provoc idiote qui vise juste à foutre le feu là où tu passes.
 
Si tu n'es pas capable d'exprimer tes opinions autrement, ça ne nous dérangera pas une seule seconde de nous priver durablement de ce type de contribution (la section est bien plus cool depuis que l'on a fait le ménage dans les pro machin/anti truc).
 


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11360971
$k-flown
Posté le 25-09-2024 à 12:56:52  profilanswer
 

Je suis trop vieux pour être fan d'une marque ou anti, je suis surtout depuis longtemps pour le matos qui m'offrira le plus pour le moins d'argent.
 
Mais vu qu'on est sur un forum on peut critiquer des pratiques qu'on trouve discutables je pense.

n°11360973
havoc_28
Posté le 25-09-2024 à 13:02:05  profilanswer
 

$k-flown a écrit :

Je suis trop vieux pour être fan d'une marque ou anti, je suis surtout depuis longtemps pour le matos qui m'offrira le plus pour le moins d'argent.
 
Mais vu qu'on est sur un forum on peut critiquer des pratiques qu'on trouve discutables je pense.


 
C'est pour ça que tu ne relaies que des benchmarks où les radeons sont comme par hasard devant ? Aucun parti pris, c'est sûr.
Et l'argument de l'âge, mais qu'est ce que ça change ? Y a des jeunes cons, comme des vieux cons ...

Message cité 1 fois
Message édité par havoc_28 le 25-09-2024 à 13:05:01
n°11360975
Scrabble
Posté le 25-09-2024 à 13:20:21  profilanswer
 

$k-flown a écrit :

(ça date pas de maintenant le fait que je trouve les pratiques de nvidia mesquines sur le nombre de Go embarqué, ça fait partie de toute la ribambelle des pratiques opérées pour l'obsolescence programmé et la ringardise de l'achat précédent, l'argument du dlss permettant de continuer à vendre des CG avec 8Go comme il y a 10ans alors que la demande en textures et les résolutions d'écrans ne font qu'augmenter au fil du temps c'est du génie faut le reconnaitre...)


L'objectif premier du DLSS n'est pas d'économiser de la VRAM, mais de soulager le GPU d'une charge de calcul trop lourde pour lui en réduisant la définition qu'il va utiliser pour le rendu
Evidemment, comme ca a été une exclusivité nVIDIA, c'était du pain béni pour le marketing
Pour ce qui est de la quantité de VRAM, nVIDIA ne fait que répondre a la demande des gamers, qui pour la plupart sont trop radins pour payer 4Go de plus qui n'auraient pas d'utilité immédiate
On le voit par exemple pour toutes les critiques qu'on lit sur la RTX 4060 Ti 16Go
Avec la venue de l'I.A. personnelle avec des logiciels comme GPT4All ou KoboldCpp, qui ont besoin de beaucoup de VRAM, les choses pourraient changer, les gamers pouvant s'amuser a faire de l'I.A. sur leur PC entre deux sessions de jeu

n°11360976
Neji Hyuga
Modérateur
:grut:
Posté le 25-09-2024 à 13:23:28  profilanswer
 

$k-flown a écrit :

Je suis trop vieux pour être fan d'une marque ou anti, je suis surtout depuis longtemps pour le matos qui m'offrira le plus pour le moins d'argent.
 
Mais vu qu'on est sur un forum on peut critiquer des pratiques qu'on trouve discutables je pense.


 
Ne nous prends pas pour des andouilles, il y a aucun problème à se montrer critique envers une marque, ses choix techniques et marketing, j'ai déjà dit que les topics uniques n'ont pas vocation à être des safe space et que la critique y est bienvenue lorsqu'elle est argumentée, mais il y a des manières de le faire.
 
En l'état la quasi totalité de tes posts récents ne donne pas vraiment l'impression d'avoir été rédigé par quelqu'un de "trop vieux" ou impartial, bien au contraire.
 
Donc c'est toi qui vois, soit tu sais contribuer autrement à la section qu'en lâchant des demi punch line stupides ou des bouts de citations/graphes hors contexte uniquement ponctués de souriards, soit tu iras voir ailleurs.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11360977
havoc_28
Posté le 25-09-2024 à 13:29:26  profilanswer
 

Scrabble a écrit :

Pour ce qui est de la quantité de VRAM, nVIDIA ne fait que répondre a la demande des gamers, qui pour la plupart sont trop radins pour payer 4Go de plus qui n'auraient pas d'utilité immédiate


 
Heu non, l'AD106 avec un bus 128 bits c'est une décision délibéré de Nvidia pour gratter quelques mm² sur sa puce. Personne de censé ne veut d'une carte à + de 400 € avec 8 Go de VRAM, à l'époque d'Ampère passe encore, mais sur ADA non.
 

Scrabble a écrit :

On le voit par exemple pour toutes les critiques qu'on lit sur la RTX 4060 Ti 16Go


 
+ 100$ pour 8 Go de GDDR6 ? Clairement que les gens ont compris qu'on les prend pour des cons ... (tout comme la 4060 Ti de base qui est également fortement critiqué hein).
 

Scrabble a écrit :

Avec la venue de l'I.A. personnelle avec des logiciels comme GPT4All ou KoboldCpp, qui ont besoin de beaucoup de VRAM, les choses pourraient changer, les gamers pouvant s'amuser a faire de l'I.A. sur leur PC entre deux sessions de jeu.


 
Y en aura surement oui, mais est ce que ça correspond à quel % du marché ?


Message édité par havoc_28 le 25-09-2024 à 13:31:01
n°11360978
xplo
Posté le 25-09-2024 à 13:39:19  profilanswer
 

L IA que ça soit utilisé ou non ça sert méga marketing vendeur donc je m attends a des carte avec grosse vram

n°11360979
Neji Hyuga
Modérateur
:grut:
Posté le 25-09-2024 à 13:40:42  profilanswer
 

Scrabble a écrit :

Pour ce qui est de la quantité de VRAM, nVIDIA ne fait que répondre a la demande des gamers, qui pour la plupart sont trop radins pour payer 4Go de plus qui n'auraient pas d'utilité immédiate
On le voit par exemple pour toutes les critiques qu'on lit sur la RTX 4060 Ti 16Go


 
Ça n'a absolument rien à voir, cette carte est conçue pour permettre de faire de l'inférence de gros modèles génératifs sans avoir à exploser son budget, pour un joueur il n'est pas difficile de comprendre que son surcoût n'a presque aucun intérêt, d'autant plus que la 4060 Ti 8GB n'est déjà pas l'offre du siècle.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11360981
havoc_28
Posté le 25-09-2024 à 13:43:07  profilanswer
 

xplo a écrit :

L IA que ça soit utilisé ou non ça sert méga marketing vendeur donc je m attends a des carte avec grosse vram


 
Sauf que la GDDR7 ne voit pas sa densité doubler dans cette première phase (plus tard on passera à des puces de 3 GO, pour finir à 4 GO, mais on est pas encore là).  
 
Donc en fonction de la largeur de bus c'est 8 Go, 10, 12 Go, 16 Go, 20 Go, 24 Go, 28 Go, 32 GO, ou le double en Clamshell, mais bon Clamshell = le double de puce vram = des coûts supplémentaires.
128/160/192/256/320/384/448/512 bits (je n'ose imaginer une carte graphique avec 64 bits / 96bits en 2025 même si la GDDR7 permettrait ce genre d'infamie ...).
 
Et puis le lambda il sait vraiment que l'apprentissage machine à besoin de beaucoup de VRAM pour fonctionner correctement ? Nvidia a le leadership à ce niveau, ils ont de quoi entourlouper le non connaisseur à ce niveau :o.


Message édité par havoc_28 le 25-09-2024 à 13:47:49
n°11360985
Neji Hyuga
Modérateur
:grut:
Posté le 25-09-2024 à 14:06:39  profilanswer
 

Ils vont quand même pousser l'usage des IA génératives en jeu (on a un premier titre ACE qui arrive bientôt), on est plus sur des modèles de quelques dizaines de MB, faire de la place en VRAM pour un LLM c'est pas la même histoire.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11360988
jinxjab
Protection engendre sacrifice
Posté le 25-09-2024 à 14:26:23  profilanswer
 

Petit HS sur l'illustration de l'incorporation IA pour le PNJ :
 
Je suis tombé l'autre jour sur un "gameplay" de Skyrim avec un PNJ dont les interactions et dialogues sont gérés par IA ... (ChatGPT)
 :pt1cable:  

Spoiler :

Pour ceux qui veulent voir une production "artistique" par la mise en scènes de phases de jeux pour monter une histoire dans une optique de production de vidéos youtube  
https://www.youtube.com/watch?v=RwoGe066NHM
En anglais, bien évidemment.  :o  


 
J'étais bluffé. :whistle:  
 
Je suis pourtant un indécrottable "anti-IA" non pas par méfiance, mais par conviction de l'erreur de dénomination "intelligence" (dans la grande majorité des cas, il s'agit simplement de mécanismes de scripting avancés).
 
Mais j'avoue très volontiers que cela permettra une expérience de jeu bien plus intéressante et immersive.  :jap:  
 
 
Concernant "l'IA générative" est-ce seulement un moyen de facilité la tâches de dev ou bien ... ?


---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.” Il s'agit donc de pseudo-sciences.
n°11360991
xplo
Posté le 25-09-2024 à 14:50:15  profilanswer
 

l'IA in game ca va etre des service cloud dans tous les sens, jamais ils vont laissé ca se faire en local. Mais ca va etre vendu quand meme dans la CG :o

n°11360992
Neji Hyuga
Modérateur
:grut:
Posté le 25-09-2024 à 14:53:08  profilanswer
 

jinxjab a écrit :

(dans la grande majorité des cas, il s'agit simplement de mécanismes de scripting avancés)


 
Ce n'est pas vraiment le cas du deep learning, le fonctionnement d'un réseau de neurones formels n'a plus grand chose à voir avec l'exécution d'un script classique (c'est une autre question pour le programme qui encapsule l'utilisation du modèle). Mais de toute manière parler d'intelligence pour une machine ça tiendra toujours autant de considérations philosophiques que techniques.
 
Remplacer les moteurs de dialogues traditionnels avec les PNJ par des appels à des LLM, je ne sais pas si ça facilite vraiment le boulot des devs mais ça ouvre pas mal de perspectives.
 
Et ce n'est pas si HS que ça puisque ce sera le cheval de bataille de Nvidia sur cette génération.
 

xplo a écrit :

l'IA in game ca va etre des service cloud dans tous les sens, jamais ils vont laissé ca se faire en local. Mais ca va etre vendu quand meme dans la CG :o


 
Et pourtant si, il y aura bien les deux modes.


Message édité par Neji Hyuga le 25-09-2024 à 14:54:26

---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11360995
ravenloft
Meilleur jeu du 20ème siècle
Posté le 25-09-2024 à 15:06:04  profilanswer
 

jinxjab a écrit :


Concernant "l'IA générative" est-ce seulement un moyen de facilité la tâches de dev ou bien ... ?


C'est un moyen de faciliter la tache du dev car quand tu crées un open world, il faut beaucoup de contenu pour qu'il soit riche et immersif sans avoir l'imrpession que tout a été rajouté au chausse pied avec une qualité très moyenne comme toutes ces quêtes fedex qu'on se farcie ou un remplissage avec du collectibles ou du copié collé qu'on voit à 10 km à la ronde qu'on trouve dans 100% des jeux open worlds ou quasi.
L'Ia permettra de créer ce contenu et la varier à l'infini sans avoir à embaucher 10 000 devs pendant 5 ans pour créer un seul open world rempli de façon naturelle.

 

Par contre, quand quelque chose aide, cela peut être utilisé par fainéantise. Si l'ia fait le boulot à ma place, pourquoi je bosserai et si je suis le patron, pourquoi j'embaucherai autant d'employés.

 

Chaque progrès a son bon et mauvais côté. C'est après à l'intelligence humaine et le respect des autres de savoir faire la part des choses et là ....  :whistle:

Message cité 1 fois
Message édité par ravenloft le 25-09-2024 à 15:07:05

---------------
Ravenloft
n°11360996
ravenloft
Meilleur jeu du 20ème siècle
Posté le 25-09-2024 à 15:09:18  profilanswer
 

xplo a écrit :

l'IA in game ca va etre des service cloud dans tous les sens, jamais ils vont laissé ca se faire en local. Mais ca va etre vendu quand meme dans la CG :o


Ils laissent déjà faire des trucs en local donc pourquoi ils feraient tout en cloud ?
Déjà tout le monde n'a pas la fibre donc faire tout en cloud à l'heure actuelle ou même dans 5 ans, ça sera impossible, de 2, s'ils veulent vendre du matos pensé ia, ils seront obligés car sinon personne achètera si tout est en cloud.
 
C'est pas pour rien que MS a fait en sorte que l'ia de copilot + soit de l'ia en local et nvidia fera en sorte que tout ce qu'ils développent à base d'ia pour les joueurs soit en local sur leurs gpus.


---------------
Ravenloft
n°11361020
MacIntoc
tu lis une phrase formidable.
Posté le 25-09-2024 à 17:35:10  profilanswer
 

ravenloft a écrit :


C'est un moyen de faciliter la tache du dev car quand tu crées un open world, il faut beaucoup de contenu pour qu'il soit riche et immersif sans avoir l'imrpession que tout a été rajouté au chausse pied avec une qualité très moyenne comme toutes ces quêtes fedex qu'on se farcie ou un remplissage avec du collectibles ou du copié collé qu'on voit à 10 km à la ronde qu'on trouve dans 100% des jeux open worlds ou quasi.
L'Ia permettra de créer ce contenu et la varier à l'infini sans avoir à embaucher 10 000 devs pendant 5 ans pour créer un seul open world rempli de façon naturelle.


L'IA risque d'être difficile à cadrer sur des dialogues live ^^'


---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
n°11361035
BloodyCarn​age
Posté le 25-09-2024 à 18:50:59  profilanswer
 

Disons que d'un côté, tu vas avoir des gros LLM online censurés, politisés et moralisateurs comme le sont tous les LLM publiques de grosses entreprises, et de l'autre, du local qui va tourner en boucle au bout de 10 répliques faute d'avoir assez de données pour minimiser l'emprunte mémoire.
Si on prend l'exemple de la vidéo du dessus, ça n'est possible que pour un mod avec un LLM décensuré. Aucune solution officielle ne permettra jamais d'aborder ce genre de sujets, c'est trop risqué pour les entreprises.
Alors oui, la technologie est plus ou moins là, mais le fun n'y sera pas (sauf mods).


---------------
Nothing's so bad it can't get worse
n°11361041
ravenloft
Meilleur jeu du 20ème siècle
Posté le 25-09-2024 à 19:48:24  profilanswer
 

MacIntoc a écrit :


L'IA risque d'être difficile à cadrer sur des dialogues live ^^'


Pas forcément. Ce sera au dev de mettre les limites à l'ia pour qu'elle ne fasse pas n'importe quoi.


---------------
Ravenloft
n°11361042
booba92i
Posté le 25-09-2024 à 19:50:25  profilanswer
 

havoc_28 a écrit :


 
C'est pour ça que tu ne relaies que des benchmarks où les radeons sont comme par hasard devant ? Aucun parti pris, c'est sûr.
Et l'argument de l'âge, mais qu'est ce que ça change ? Y a des jeunes cons, comme des vieux cons ...


 
 
Moi je veut bien un bench gpu AMD avec un casque VR Varjo Aero, il n'y a aucune concurrence et Nvidia et devant sur tout sans exception  :D  
 
 
 :lol:


---------------
WiiDS: Sauf que IL2 a un mode DirectX, et que ce dernier reste plus performant même sous nVidia. lol :)
n°11361055
matt33000
Posté le 25-09-2024 à 21:41:26  profilanswer
 

Pour les futurs acquéreurs de 5090, je viens de voir une alim prix pas démentiel .
 1200 watts atx 3.1, 12v 2*6, condo 100 % jap , modulaire à 200 balles .
https://www.amazon.fr/dp/B0DCJCQZDC [...] f825d&th=1

Message cité 1 fois
Message édité par matt33000 le 25-09-2024 à 21:44:48

---------------
2 ième compte. 1er compte: pseudo mat33000
n°11361059
Xixou2
Posté le 25-09-2024 à 21:47:30  profilanswer
 
n°11361061
xplo
Posté le 25-09-2024 à 22:23:43  profilanswer
 

matt33000 a écrit :

Pour les futurs acquéreurs de 5090, je viens de voir une alim prix pas démentiel .
 1200 watts atx 3.1, 12v 2*6, condo 100 % jap , modulaire à 200 balles .
https://www.amazon.fr/dp/B0DCJCQZDC [...] f825d&th=1


ma 750w de 10 ans fonctionnera niquel avec une 5090, pas besoin de changer.

n°11361139
uNReaLx77
üNReaL
Posté le 26-09-2024 à 12:34:42  profilanswer
 

xplo a écrit :


ma 750w de 10 ans fonctionnera niquel avec une 5090, pas besoin de changer.


Tu as de l'espoir :D

n°11361146
Neji Hyuga
Modérateur
:grut:
Posté le 26-09-2024 à 12:55:22  profilanswer
 

Je foutais une GX750 en sécurité avec une 3090 légèrement clockée et une 4090 stock (ceci dit c'est vrai que ce bloc est connu pour être tatillon avec les pics d'intensité), alors si l'on repousse encore les limites de conso d'une cinquantaine, voir centaine de Watts, ça risque effectivement d'être très optimiste.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11361169
cyberfred
Posté le 26-09-2024 à 14:43:38  profilanswer
 

effectivement, même si ca peut passer,  une 750W avec des CGs comme la 4090 et la future 5090 sera forcément moins à l'aise, enfin il y aura moins de marge,  qu'une 1000W ou plus c'est sûr.
j'avais aussi mis une alim en sécurité avec une Corsair RM750x  et une 3090 overclockée (mais stock ca passait sans soucis), pas testé avec ma 4090 actuelle.

n°11361170
xplo
Posté le 26-09-2024 à 14:46:30  profilanswer
 

jamais eu de soucis avec une 3090FE et en ce moment une 4080. Enfin si y a une led rouge sur la 4080 car je dedouble un cable ATX mais ca fonctionne très bien quand même.
Apres j'undervolt toujours ces cartes pour le bruit donc forcement ca consomme bcp moins pour les même perf voir plus de perf.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  42  43  44  45  46  47

Aller à :
Ajouter une réponse
 

Sujets relatifs
Adaptateur Nvidia 12VHPWR avec RTX 4080 MSI TRIO et Corsair 500D SEIntel Arc A770 ou nVidia RTX 3060 ?
Conseil d'achat CG Nvidia en 2023Quel NAS choisir pour une utilisation plex sur nvidia shield
Nvidia shield et vpnNvidia 4090 aide
...Je vend ma carte graphique NVIDIA Titan RTX 24756 Mo
Positions perçages des sockets nvidiaHelp sur achat GPU AMD/NVIDIA avec ancienne config
Plus de sujets relatifs à : Topic Blackwell - Nvidia Geforce RTX 5000


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR