Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1816 connectés 

  FORUM HardWare.fr
  Hardware
  Carte graphique

  Underclocking Geforce 8800 en mode 2D : - de conso et - de chauffe !

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

Underclocking Geforce 8800 en mode 2D : - de conso et - de chauffe !

n°5921119
Prophet_ch
Posté le 30-09-2007 à 16:35:14  profilanswer
 

J'ai remarqué qu'avec Rivatuner on pouvait changer les fréquences 2D, qui fonctionnent également sous Vista avec aero.
J'ai alors mis les valeurs 2D au minimum : 288mhz pour le core (au lieu de 576),  675 pour les shaders (au lieu de 1350) et 450mhz pour la ram (au lieu de 900)

 

Résultat : température core à 52-53° au lieu de 58°, et ambiante à 45° au lieu de 49° !
Ca fait donc moins consommer et moins chauffer pour aucune différence sur les performances du bureau !!  :ouch:

 

Ma question : pourquoi Nvidia n'a-t-il même pas fait ça de base sur ces cartes graphiques ?! :sarcastic:

 

Par contre avec Rivatuner on ne peut modifier les fréquences ram différentes en 2D/3D, c'est un peu dommage...

 

Dans tous les cas, autant qu'on le fasse soi-même, on y gagne à tous les niveaux.  :jap:


Message édité par Prophet_ch le 30-09-2007 à 16:36:10
mood
Publicité
Posté le 30-09-2007 à 16:35:14  profilanswer
 

n°5921129
bjone
Insert booze to continue
Posté le 30-09-2007 à 16:42:40  profilanswer
 

plus précisément, je dirais que le concept 2D/3D est une aberration, et les GPU devraient avoir un système d'économie d'energie bien plus poussé.
ce sera pour les prochaines génération :/

n°5921135
Prophet_ch
Posté le 30-09-2007 à 16:46:11  profilanswer
 

C'est vrai !
Je trouve ça aberrant de consommer peut être 80w rien que sur la 8800GTX juste quand j'écris du texte sur Word 6h par jour !! :fou:
Quand on sait qu'avec un simple Geforce 5200 on obtient la même chose avec une consommation de peut être 20w sur le bureau et aucune chauffe.  :sweat:

 

Vive le gaspillage d'énergie...


Message édité par Prophet_ch le 30-09-2007 à 16:48:49
n°5921169
bjone
Insert booze to continue
Posté le 30-09-2007 à 17:09:00  profilanswer
 

il y clairement a y gagner:
 - sur le gpu:
- changement de fréquence par paliers, suivant la charge (après voir comment faire les heuristiques coté driver ou interne au gpu), avec la fréquence d'o/c comme un "super-palier":
le bios stoque un table de fréquence GPU/tension GPU par palier renseigné et validé par l'oem, le driver les utilise, et rajoute une entrée d'o/c utilisateur de couple fréquence/tension.
- activation des pipes à la volée...
 
 - sur la mémoire, idem tables de couples fréquence/tension validés, et gestion de banques mémoire par contrôleur DDR alimentées suivant l'utilisation mémoire.
quand on sera à 2Go de ram, mettons en 8 puces de 256Mo (donc 8 ou 4 canaux), sur les cartes 3d dans 1 an ou 3 ans au plus tard, ça sera utile.  
pouvoir alimenter que 256/512Mo de ram pour une utilisation bureautique, et alimentation par pavés de 256/512 avec réalimentation par couples de contrôleur/mémoire liés au contrôleur suivant la conso mémoire (et/ou la consommation en bande-passante mémoire, vu que si tu coupes des contrôleurs et sa mémoire, ça change la bande-passante globale, et faut invalider les données que l'entrelacement change ).
 
sur une carte 3D, invalider les données en mémoire vidéo de manière épisodique n'est pas un problème, c'est déjà le cas lors d'un alt-tab en direct3d 9, et le d3d 10 impose une certain niveau de virtualisation mémoire qui fait que l'app ne saurait même pas ce qui se passe.


Message édité par bjone le 30-09-2007 à 19:51:36
n°5921201
bjone
Insert booze to continue
Posté le 30-09-2007 à 17:29:55  profilanswer
 

sur nos mobo, dans le cas d'utilisation de plusieures barettes par canal (genre 4 barettes de 1Go sur deux canaux), le kernel pourrait ramener toutes les pages non-cache disque des barettes impaires dans l'espace des barettes paires ou dans le swap, puis couper l'alimentation des barettes impaires (ie faudrait un standard et la conception pour ça).  
en faisant attention à avoir les pages non-swappables de buffers DMA ou autre initialement dans l'espace des barettes paire.  
 
par contre couper tout un contrôleur et ses barettes est beaucoup plus complexe: il faudrait désentrelacer les données de manière quasi-atomique, ce qui pose énormément de problèmes de cohérence (dans le code du noyau qui s'occuperait de ça).
 
pour un GPU, couper certains de ses contrôleurs et les modules liés est faisaible, car la manière d'utiliser un GPU fait que l'on est relativement insensible à l'invalidation des données, mais pour un CPU ça peut revenir à se tirer un coup de fusil à pompe dans une jambe :D


Message édité par bjone le 30-09-2007 à 18:31:19
n°5921382
johnclaude
You know nothing johnclaude
Posté le 30-09-2007 à 19:17:58  profilanswer
 

bjone, je voulais juste te dire que j'ai rien capté à ce que tu racontais, mais ça a l'air pas con, comme ça vu de loin. sinon pour l'underclocking 2D je crois que ça a été abandonné avec la série 8.
 
euh sinon bjone, se tirer un coup de fusil à pompe dans une jambe ça doit faire mal non?


---------------
Topic vente:
n°5921424
bjone
Insert booze to continue
Posté le 30-09-2007 à 19:47:06  profilanswer
 

ouai ça fait mal, et en plus c'est plus dur pour marcher :D

n°5921434
jiraya47
Posté le 30-09-2007 à 19:52:58  profilanswer
 

ben en meme temps les 8800gtx ces des betes de courses,c'est comme s'y on prenait un hummer pour aller au supermarche,vive la consommation en essence,mais attendons avec espoir les prochain GPU graver en 25nm :whistle:


Message édité par jiraya47 le 30-09-2007 à 19:53:28

---------------
---/nothing.../I WANNA BE A ROCKSTAR§§§---
n°5921451
Prophet_ch
Posté le 30-09-2007 à 20:05:54  profilanswer
 

Oui mais la comparaison n'est pas valable ici.  
Un Core 2 Duo es très puissant tout en étant très économe, c'est largemment faisable !
 
Surtout qu'en changeant les fréquences 2D on y gagne déjà beaucoup, et je trouve vraiment absurde d'avoir abandonner ce procédé sur les Geforce 8, c'est un retour en arrière débile !  :pt1cable:

n°5923303
Prophet_ch
Posté le 02-10-2007 à 00:00:14  profilanswer
 

:bounce:  
 
Je confirme que j'y gagne pas mal en degré et température, l'info devrait passer + loin, c'est super pratique (et écolo surtout !) :)

mood
Publicité
Posté le 02-10-2007 à 00:00:14  profilanswer
 

n°5924534
Prophet_ch
Posté le 02-10-2007 à 21:43:23  profilanswer
 

Pour les possesseurs de 8800 vous n'êtes pas intéressés ?
C'est pourtant tout con et tout bénéf.  :pt1cable:


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  Carte graphique

  Underclocking Geforce 8800 en mode 2D : - de conso et - de chauffe !

 

Sujets relatifs
Asus P4T533-C et GeForce 6600[Conseils] Quelle 8800 GTS choisir ?
Config X38 / P35 et 8800 GTS / 2900 ProCG 8800 GTX
ATI Radeon X1300 Pro || nVidia™ GeForce 8600 GT8800 GTX saccades
Southbridge qui chauffe et la mobo ne s'allume pasQuelle 8800 GTX pour environ 500 euros ?
remplacer geforce 7500 LE sur mediacenter8800 GTS et config prehistorique
Plus de sujets relatifs à : Underclocking Geforce 8800 en mode 2D : - de conso et - de chauffe !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR