Les méthodes de compression tente de repérer toutes les répétitions, symétries et autres propriétés globales d'un ensemble de données pour rendre le tout très compacte, avec un
minimum de propriétés connues en double.
De ce fait, un autre algorithme a peu de chance de trouver de quoi compresser derrière.
Il me semble d'ailleurs que c'est un test basique de validation utilisé parfois pour valider un algo... on compresse, puis on essaye de compresser avec un autre algo derrière.
Si le gain est notable, l'algo 1 est probablement pas encore optimisé.
Je me rappelle de ce genre de discussion sur des codecs, ou les dev testaient derrière différents algo de compression de donnée pour voir s'il y avait encore de la marge.
Même si le cadre est encore un peu différent, l'idée était de voir ce qu'on pouvait faire au moment de l'encodage pour avoir des données les moins lourdes possibles à qualité donnée.
Message édité par David7578 le 12-01-2009 à 17:36:35