Bonjour,
Je travaille actuellement sur un outils de reports de performance sur des programmes du html+js+flash généré à partir d'un xml transformé avec du xsl.
Qui dit mesure de performance dit approche statistique : les traitements dont on cherche à mesurer les performances vont donc être executés un certain nombre de fois. Chaque traitement étant susceptible d'avoir lui-même des sous-traitements. Le tout en obserant les quelques élements principaux : consommation cpu / ram / io sur la durée du traitement.
Le but est de comparer deux versions de chaque programme en affichant des résultats chiffrés et des graphiques.
C'est là que je commence à avoir des difficultées, comparer deux jeux de 18 courbes pour chaque mesure de chaque traitement graphiquement commence à ne plus avoir de sens (à ne plus être visible du tout) ...
J'ai donc besoin de synthétiser l'information en moyennant les mesures constatées sur les n exécutions d'un même traitement et mathématiquement je ne sais pas trop comment faire ça proprement et donc en terme de code je ne vois pas trop non plus.
Prenons un cas très simple :
j'ai une série représentant la consommation mémoire sur un intervalle de temps d'un traitement qui est exécuté 2 fois : [x=temps,y=mémoire]
série 1 : [1,1] [2,1] [3,2]
série 2 : [1,1] [2,2] [3,2]
La, c'est intuitif, la série moyenne donne [1,1] [2,1.5] [2,2]
le problème c'est que les traitements n'ont pas nécéssairement la même durée :
série 1 : [1,1] [2,1] [3,2]
série 2 : [1,1] [2,2] [3,2][4,3]
Là, c'est moins intuitif.
Comment procéderiez-vous pour moyenner des séries de longueur variable ?
(si vous avez un exemple en js vous gagnerez un admirateur à vie =)
Merci d'avance