Le bitrate, pris tout seul, n'indique rien du tout... Il Il faut le mettre en relation avec la résolution (= l'ensemble des données à faire tenir dans tel ou tel débit).
Donc peu importe que tu indiques le nombre de bits par pixel, ou le nombre de kilobits par seconde par image de résolution X*Y, les deux modes de calcul se valent.
Cas pratique : supposons que l'on veut encoder 25 images de 100x100 pixels (p.ex. une seconde de film en noir et blanc tout riquiqui) : chaque image représente 100 x 100 informations, soit au total 25 x 10000 informations (250000 bits).
Par commodité, on veut faire tenir ces 250000 bits d'origine (= à l'état non compressé) dans à peine 50000 bits (voilà donc pourquoi on parle de 'compression').
-> 250000/50000 = 5. On aura donc une compression de 5:1 (synonyme : '20%' de la taille originelle). Avec un débit final de 50000 bits pour une seconde de vidéo (= 50 kbps, le 'bitrate').
Ensuite, si tu appliques la même compression (''5:1'') à une image 4 fois plus grande (200x200 pixels = 40000 bits par image, à multiplier par 25), les données d'origine seront quatre fois plus grandes, et les données compressées aussi (25 x 40000 / le taux de compression souhaité, ici '5') ... c'est une simple règle de trois.
Dès lors, pour obtenir le même bitrate final (50 kbps) pour une image quatre fois plus grande, il faudra donc un taux de compression 4 fois plus fort (20:1 au lieu de 5:1)... mais la qualité sera beaucoup moins bonne, forcément ! Voilà pourquoi le bitrate n'indique aucunement une mesure fiable de la 'qualité'...
Message édité par Ars Magna le 06-09-2004 à 19:36:35