Atlantis a écrit a écrit :
un cpu peu fonctionner à n% parce que les fonctions d'enconomie d'energie sont implémentées depuis belle lurette. les GPU en sont dépourvus en 3D : c tout ou rien. après selon la difficulté et la quantité de données à traiter tu observes un certain filrate, vers la mémoire dédiée à l'affichage (différents de l'affichage n lui mm, faut il encore le répeter). Enfin ça c ce qui se passe actuellement. pour le G10 ce sera p-e différent.
la température est imprécise, retardée et biaisée ( f(t° de l'air par ex) )
|
non, la notion d'utilisation cpu vient du principe du multi-tâche, ou l'ordonnanceur sait combien de temps (en timeslice) est consommé par les process/threads.
pour un gpu il faudrait juste connaitre le début et le fin d'éxécution des commandes, vu que sur le bureau tu as des commandes de traçage uniquement quand tu déplaçes une fenêtre ou que des surfaces doivent être rafraichies.
pour les jeux c'est plus subtile, on retraçe en permanence l'image, ce qui donne en général toujours 100% d'utilisation.
Mais nVidia offre des drivers de statistiques aux développeurs afin de connaitre les propotions de temps passé au niveau hard, au niveau driver, et au niveau application pour le rendu d'une image. (l'idéal indiquant un maximum au niveau hard/driver, sous-entendant que le moteur 3d en amont devrait avoir ses fps qui croissent avec une nouvelle carte 3d plus rapide, sauf si le moteur abruti le driver en commandes inutiles).
Message édité par bjone le 27-08-2002 à 18:29:51