j'ai pas tout zieuté, mais on testant à l'arrache entre 8 et 11 avec mbench, j'ai l'impression que la tendance c'est que la bande-passante en lecture gagne ce que l'écriture perds.
la logique serait donc qu'en écriture, le cache qui irait avec le DASP ne sert à rien (write-through ), et on se retrouve avec le comportement théorique => bande-passante pénalisée par l'augmentation du timing.
et en lecture, le DASP a une plus grande fenêtre, mais à quel niveau
on peut supposer que le DASP possède un algorithme d'une certaine complexité (hum), qui a un coût en cycles mémoires, hors tranvaillant en temps masqué avec les opérations mémoires.
on peut supposer qu'augmenter le "temps" pris par les opérations mémoires, passé un certain seuil, permet au DASP de compléter sa requête interne (=> pseudo cache hit ), ou lieu de l'invalider si l'opération mémoire est terminée.
ceci n'étant observable qu'en lecture.
en fait au aurait un balancement pour les lectures, entre un cache hit au niveau DASP (dû un à prefetch immédiatement antérieur), entre l'accès mémoire en lecture pure.
avec le cache hit DASP beaucoup plus rentable que la lecture pure, mais un abandon anticipé (tôt dans l'algo du DASP) lorsque la lecture atteint un certain niveau d'éxécution coté contrôleur mémoire....