Bonjour a tous,
je dois acceder aux informations de pixels (r,g,b) d'une image assez grande (4000*2000), sachant que le programme ira recuperer les pixels dans un voisinage limité à chaque itération.
Aussi je recherche la librairie la + performante qui me permettrait de faire ca (genre traiter plusieurs millions de pixels par secondes).
J'ai dejà essayé freeimage sous windows, mais visiblement pour recuperer les pixels de facon aléatoire, c plutot lent...
D'autre part:
-Serait il plus rapide pour le traitement d'acceder aux informations dans 32 images de 500*500 ou dans 1 de 4000*2000?
-Est il plus rapide de charger une image bmp de 4000*2000 ou une image jpeg de cette meme taille mais le fichier etant forcément moins gros,
en clair est il plus rapide de charger directement le fichier non compréssé, ou de charger le fichier compressé + decompression?
-Enfin, quelle plateforme utiliser?(tjs pour la performance)
Merci d'avance pour votre aide,
Message édité par drpark le 12-05-2005 à 10:39:59