Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1469 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  18  19  20  ..  23  24  25  26  27  28
Auteur Sujet :

On a pas de pétrole mais on a des idées : le topic des experts

n°4424858
GBo
Posté le 28-10-2011 à 13:26:13  profilanswer
 

Reprise du message précédent :

Proute2000 a écrit :

Faudrait aussi que tu comprennes un peu les contraintes techniques  [:spamafoote]
Sans compter que la réduction ne doit absolument pas être fait n'importe comment.
La correction gamma n'est pas du tout un paramètre anodin et si la réduction n'en tient pas compte, ça foira inévitablement la déconvolution.


T'as foiré une déconvolution à cause du paramètre de gamma dans robust_deblur.exe ? :heink:
Et je ne sais pas ce que tu entends par "pas être fait n'importe comment" pour la "réduction", mais j'ai utilisé la réduction de taille de Photoshop (Image Size => bicubic tout bête bien connu) sur mon exemple qui marche.

Proute2000 a écrit :

Faudrait aussi que tu comprennes un peu les contraintes techniques  [:spamafoote]
Ta photo comporte de nombreux plans différents et doit en plus comprendre un flou d'objectif.


Voilà une bonne remarque inédite (celle que j'ai mise en gras).

Message cité 1 fois
Message édité par GBo le 28-10-2011 à 15:13:48
mood
Publicité
Posté le 28-10-2011 à 13:26:13  profilanswer
 

n°4424897
Proute2000
¡ sǝssǝɟ sǝɯ ɹǝʇɐɯ ǝp ǝʇǝɹɹɐ
Posté le 28-10-2011 à 13:52:31  profilanswer
 

GBo a écrit :

Le réduction faite avec Image Size => bicubic de photoshop a été suffisante sur mon exemple, je ne sais pas ce que tu entends par n'importe comment.
T'as foiré une déconvolution à cause du paramètre de gamma dans robust_deblur.exe ? :heink:

Je n'ai pas essayé avec ce programme précis.
 
Je parle seulement du principe mathématique de la (dé)convolution.  
 
Et rien à voir avec l'algo de réduction bicubic ou autres car aussi bonne soit la réduction si celle-ci ne tient pas compte de l'espace colorimétrique (comme un grand nombre de logiciels), le résultat sera complètement faussé.  
 
Dans l'espace sRGB, la moyenne de "255" et "0" n'est pas "127" mais est plus proche de "186".

Message cité 1 fois
Message édité par Proute2000 le 28-10-2011 à 15:21:37
n°4425098
Froooom
Posté le 28-10-2011 à 15:20:34  profilanswer
 

Proute2000 a écrit :

Beaucoup de logiciels prennent comme moyenne de "255" et "0" : "127" alors que dans l'espace sRGB elle se rapproche plus de "186".


 
Mais keskidit [:baragor]
 
Soit plus clair parcque (255 - 0)/2 ne fera jamais 186. Et si tu fait cette moyenne dans l'espace sRGB, L*a*b*,RGB ou ce que tu veux les bases des mathématiques restent vrai.
Encore une fois, soit plus clair parcque au départ déjà on se demande pourquoi tu parle de moyenne.


---------------
Flick R
n°4425113
Proute2000
¡ sǝssǝɟ sǝɯ ɹǝʇɐɯ ǝp ǝʇǝɹɹɐ
Posté le 28-10-2011 à 15:35:55  profilanswer
 

Froooom a écrit :

Mais keskidit [:baragor]
 
Soit plus clair parcque (255 - 0)/2 ne fera jamais 186. Et si tu fait cette moyenne dans l'espace sRGB, L*a*b*,RGB ou ce que tu veux les bases des mathématiques restent vrai.
Encore une fois, soit plus clair parcque au départ déjà on se demande pourquoi tu parle de moyenne.

Et si je te dis que la "moyenne" d'un son de 10 dB et d'un autre de 90 dB n'est PAS 50 dB, tu comprends mieux ?  
 
Le dB est une mesure logarithmique donc pour faire la moyenne il faut d'abord convertir les valeurs dans une mesure linéaire... faire la moyenne... puis la reconvertir en dB.
 
 
C'est pareil pour l'espace sRGB qui n'est pas linéaire.

Message cité 1 fois
Message édité par Proute2000 le 28-10-2011 à 15:37:25
n°4425163
Froooom
Posté le 28-10-2011 à 16:39:21  profilanswer
 

Proute2000 a écrit :

Et si je te dis que la "moyenne" d'un son de 10 dB et d'un autre de 90 dB n'est PAS 50 dB, tu comprends mieux ?  
 
Le dB est une mesure logarithmique donc pour faire la moyenne il faut d'abord convertir les valeurs dans une mesure linéaire... faire la moyenne... puis la reconvertir en dB.
 
 
C'est pareil pour l'espace sRGB qui n'est pas linéaire.


 
Ok, déjà tu es plus clair (mais pas plus aimable) et tu as édité ton message précédent donc tes propos deviennent moins obscures.
 
En effet, la réduction d'une image n'est pas une opération anodine(Word en est un bon exemple de médiocrité) m'enfin je serait tenté de faire confiance à Photoshop la dessus. Après comme ce  n'est pas un logiciel libre on ne peut pas trop savoir comment ils réalise le changement de "résolution".

Message cité 1 fois
Message édité par Froooom le 28-10-2011 à 16:39:31

---------------
Flick R
n°4425192
Proute2000
¡ sǝssǝɟ sǝɯ ɹǝʇɐɯ ǝp ǝʇǝɹɹɐ
Posté le 28-10-2011 à 17:14:46  profilanswer
 

Froooom a écrit :

mais pas plus aimable

Oh excuse moi je t'ai pas dit bonjour : "Bonjour Froooom ! :hello:"  :o  
 

Froooom a écrit :

En effet, la réduction d'une image n'est pas une opération anodine(Word en est un bon exemple de médiocrité) m'enfin je serait tenté de faire confiance à Photoshop la dessus. Après comme ce  n'est pas un logiciel libre on ne peut pas trop savoir comment ils réalise le changement de "résolution".

Si si photoshop le prend en compte (enfin je crois me souvenir). Suffit de faire un damier de noir (0) et blanc (255) puis de réduire l'image et de regarder la valeur du gris ;)
 
Ensuite c'est toujours un peu "dommage" de faire ça... car évidemment... plus tu additionnes de pixels meilleure est la précision du résultat... qui aurait besoin plus de 8 bits pour s'exprimer entièrement.  [:ootransparent]
 
Note : il y a le 16 bits mais je ne sais pas comment il travaille avec les espaces couleurs... pas plus si le défouteur les acceptes.  

n°4425226
GBo
Posté le 28-10-2011 à 17:47:58  profilanswer
 

Dans le genre faux problème... :pt1cable:

n°4425296
Proute2000
¡ sǝssǝɟ sǝɯ ɹǝʇɐɯ ǝp ǝʇǝɹɹɐ
Posté le 28-10-2011 à 18:16:07  profilanswer
 

GBo a écrit :

Dans le genre faux problème... :pt1cable:

La réduction sans prendre en compte l'espace colorimétrique est un faux problème !?  [:transparency]
 
Tu sais avec quoi il réduit ses images -cas- ?

n°4425507
GBo
Posté le 28-10-2011 à 21:23:09  profilanswer
 

Proute2000 a écrit :


Si si photoshop le prend en compte (enfin je crois me souvenir). Suffit de faire un damier de noir (0) et blanc (255) puis de réduire l'image et de regarder la valeur du gris ;)
Ensuite c'est toujours un peu "dommage" de faire ça... car évidemment... plus tu additionnes de pixels meilleure est la précision du résultat... qui aurait besoin plus de 8 bits pour s'exprimer entièrement.  [:ootransparent]
Note : il y a le 16 bits mais je ne sais pas comment il travaille avec les espaces couleurs... pas plus si le défouteur les acceptes.  


http://gbotet.perso.sfr.fr/deblur/128.gif
 :sleep:  

n°4425508
carbon38
Dead Rabbit! :o
Posté le 28-10-2011 à 21:27:54  profilanswer
 

tu es courageux GBO  :o

mood
Publicité
Posté le 28-10-2011 à 21:27:54  profilanswer
 

n°4425544
Froooom
Posté le 28-10-2011 à 22:17:19  profilanswer
 

Gaffe les gars, il va revenir à la charge [:max evans]


---------------
Flick R
n°4425565
GBo
Posté le 28-10-2011 à 22:45:43  profilanswer
 

C'est à craindre, en tout cas c'est bien le même Photoshop (CS2) avec lequel j'ai resizé en 800x400 px l'image 16 bits "IMG_1608" avant de la passer avec succès au défloutage par 3 logiciels :
- deblur.exe
- robust_deblur.exe
- le plug-in expérimental d'Adobe (via le Dr Jue W.)
Donc, faux problème pour le défloutage, ça marche bien même après un passage par Photoshop qui ne sait pas que 255/2, ça fait 186

 


Message cité 1 fois
Message édité par GBo le 28-10-2011 à 23:46:21
n°4425582
Froooom
Posté le 28-10-2011 à 23:11:10  profilanswer
 

GBo a écrit :

C'est à craindre, en tout cas c'est bien le même Photoshop avec lequel j'ai resizé en 800x400 px l'image "IMG_1608" avant de la passer avec succès au défloutage par 3 logiciels :  
- deblur.exe
- robust_deblur.exe
- le plug-in expérimental d'Adobe (via le Dr Jue W.)
Donc, faux problème pour le défloutage, ça marche bien même après un passage par Photoshop qui ne sait pas que 255/2, ça fait 186.
 
 


 
En même temps, c'est pas étonnant, c'est de l'Adaube ton soft  [:loom the gloom]
 
Bref, en parlant de problème de resize, je suis en train de devenir fou avec Aperture. Sur une image j'arrive pas à retrouver la netteté de l'aperçu que j'ai dans le logiciel quand j'exporte. Je me suis dit que leur algo de resize savait pas faire des moyennes (:o) mais quand j'exporte en taille réelle même résultat ...
J'ai été obligé de faire un imprime écran pour conserver ce rendu ! C'est moche comme solution.
 
C'est dommage parque c'était le détail qui faisait tout le charme de cette photo !


---------------
Flick R
n°4425604
GBo
Posté le 28-10-2011 à 23:36:32  profilanswer
 

Connais pas Aperture désolé !
Tu peux essayer imageMagick convert.exe, c'est peu convivial (commande en ligne) mais il y a pleins d'options au moins :
http://www.imagemagick.org/Usage/resize/
 

Froooom a écrit :


En même temps, c'est pas étonnant, c'est de l'Adaube ton soft  [:loom the gloom]
[...]


Sur toshop images en 32 bits, c'est différent de toshop en 16 bits et 8 bits :
Là le gris moyen obtenu sur le resize du damier 4x4 en 1 pixel est plus clair que celui que j'ai montré plus haut (alors que l'outil "info" dit que c'est : 127).
Quand je convertis ce pixel gris clair en 16 bits, photoshop demande le gamma :
Si je rentre 1.0 => le pixel reste gris clair et l'outil info dit 187
Si je rentre 2.2 => le pixel devient d'un gris plus foncé et l'outil info dit 128.
 
[:tim_coucou]
 
cdlt,
GBo

Message cité 2 fois
Message édité par GBo le 28-10-2011 à 23:56:50
n°4425613
Froooom
Posté le 29-10-2011 à 00:01:40  profilanswer
 

GBo a écrit :

Connais pas Aperture désolé !
Tu peux essayer imageMagick convert.exe, c'est peu convivial (commande en ligne) mais il y a pleins d'options au moins :
http://www.imagemagick.org/Usage/resize/


 
Pas grave, de toute façon j'était pas dans le bon topic pour ça (M'enfin ça m'énerve). Merci pour le soft qui a l'air complet en effet. Le problème c'est que j'avais pas mal bosser sur cette image (scan de négatif MF, pétouille à supprimer) et que j'était très contente de mon aperçu. J'ai plus qu'à refaire ça ailleurs.
 

GBo a écrit :


Sur toshop images en 32 bits, c'est différent de toshop en 16 bits et 8 bits :
Là le gris moyen obtenu sur le resize du damier 4x4 en 1 pixel est plus clair que celui que j'ai montré plus haut (alors que l'outil "info" dit que c'est : 127).
Quand je convertis ce pixel gris clair en 16 bits, photoshop demande le gamma :
Si je rentre 1.0 => le pixel reste gris clair et l'outil info dit 187
Si je rentre 2.2 => le pixel devient d'un gris plus foncé et l'outil info dit 128.
 
cdlt,
GBo


 
Ya un truc que je saisi pas dans ton histoire. Si tu transforme ton image en 16 bits, le blanc doit avoir une valeur de 2^16 ou bien il reste à 255 et ton calcul est exactement le même.
Il représente quoi le gamma dans un passage 8=>16 bits ?


---------------
Flick R
n°4425630
Proute2000
¡ sǝssǝɟ sǝɯ ɹǝʇɐɯ ǝp ǝʇǝɹɹɐ
Posté le 29-10-2011 à 00:35:54  profilanswer
 

carbon38 a écrit :

tu es courageux GBO  :o

Froooom a écrit :

Gaffe les gars, il va revenir à la charge [:max evans]

Et c'est à quel moment vous que vous êtes aimable avec moi à part me prendre pour un abruti à chaque fois que je dis quelque chose !? [:transparency]

 

OK Photoshop n'a pas l'air d'appliquer la correction gamma lors de la réduction d'image... c'est bien pour cela que j'ai indiqué "enfin je crois me souvenir"... où alors c'est un paramètre que je n'arrive pas à retrouver.

 

Mais ça n'enlève rien à ce que j'ai dit. Pour que la convolution fonctionne le mieux possible la réduction d'image doit prendre en compte l'espace colorimétrique (c'est à dire 0 + 255 = 186)  [:tnt37]

 

Edit :

 
GBo a écrit :


Sur toshop images en 32 bits, c'est différent de toshop en 16 bits et 8 bits :
Là le gris moyen obtenu sur le resize du damier 4x4 en 1 pixel est plus clair que celui que j'ai montré plus haut (alors que l'outil "info" dit que c'est : 127).
Quand je convertis ce pixel gris clair en 16 bits, photoshop demande le gamma :
Si je rentre 1.0 => le pixel reste gris clair et l'outil info dit 187
Si je rentre 2.2 => le pixel devient d'un gris plus foncé et l'outil info dit 128. [:tim_coucou]

 

Ce qui laisse supposer que le "127" indiqué sous Photoshop est une valeur "compensée" par l'espace colorimétrique. Et quand réalité il est bien à 187.

 

Note : c'est assez facile de s'y perdre avec les espaces... même pour les meilleurs [:o_doc]

Message cité 2 fois
Message édité par Proute2000 le 29-10-2011 à 08:09:07
n°4425642
Froooom
Posté le 29-10-2011 à 01:17:25  profilanswer
 

Proute2000 a écrit :

Et c'est à quel moment vous que vous êtes aimable avec moi à part me prendre pour un abruti à chaque fois que je dis quelque chose !? [:transparency]


Je ne te prend pas pour un abruti mais la façon dont tu dis les choses et ton insistances te desservent (tout comme moi avec l'orthographe)
 

Proute2000 a écrit :

Note : c'est assez facile de s'y perdre avec les espaces... même pour les meilleurs [:o_doc]

C'est vrai, c'est vrai. Après j'ai du mal à parler de logiciel dont je ne connais pas bien le fonctionnement.
Je me rend compte que j'imaginais que les calculs étaient réalisés dans l'espace RGB puis la transformation était faite pour l'affichage seulement.


---------------
Flick R
n°4425654
GBo
Posté le 29-10-2011 à 07:55:06  profilanswer
 

Proute2000 a écrit :

Et c'est à quel moment vous que vous êtes aimable avec moi à part me prendre pour un abruti à chaque fois que je dis quelque chose !? [:transparency]
OK Photoshop n'a pas l'air d'appliquer la correction gamma lors de la réduction d'image... c'est bien pour cela que j'ai indiqué "enfin je crois me souvenir"... où alors c'est un paramètre que je n'arrive pas à retrouver.


Il était pourtant simple que tu fasses le test du damier toi-même au lieu de croire te souvenir que... et d'aiguiller les gens vers une fausse piste au sujet de la méthode de réduction préalable au défloutage. Et je note que comme d'habitude, c'est aux autres de faire le travail de vérification de tes sublimes intuitions (ou glanées sur le net).

Proute2000 a écrit :


Mais ça n'enlève rien à ce que j'ai dit. Pour que la convolution fonction le mieux possible la réduction d'image doit prendre en compte l'espace colorimétrique (c'est à dire 0 + 255 = 186)  [:tnt37][...]


Tu dilues progressivement ton propos... la citation exacte de Proute2000 que j'ai voulu vérifier est :

Proute2000 a écrit :

Faudrait aussi que tu comprennes un peu les contraintes techniques  [:spamafoote]
[...] Sans compter que la réduction ne doit absolument pas être fait n'importe comment. La correction gamma n'est pas du tout un paramètre anodin et si la réduction n'en tient pas compte, ça foira inévitablement la déconvolution.


Donc oui ça change tout à ce que tu as dit, puisque la réduction photoshop 16 bits que j'ai employée (tout comme celle de 8 bits) est faite "n'importe comment" selon ton expression, et ça n'a rien fait foirer ensuite pour le défloutage de l'image par 3 programmes différents [:spamafote]


Message édité par GBo le 29-10-2011 à 11:33:00
n°4425657
GBo
Posté le 29-10-2011 à 08:42:53  profilanswer
 

Froooom a écrit :


Ya un truc que je saisi pas dans ton histoire. Si tu transforme ton image en 16 bits, le blanc doit avoir une valeur de 2^16 ou bien il reste à 255 et ton calcul est exactement le même.
Il représente quoi le gamma dans un passage 8=>16 bits ?


L'outil info affiche la valeur 8 bits, ça ne représente pas la valeur réelle du fichier en 16 bits ou en 32 bits.
Le curseur de gamma dont je parlais c'est quand on passe de 32 bits à 16 bits (et il fallait mettre 1 dans mon cas).

 

En bref ce que j'ai compris après un surf court mais intense :
Le redimensionnement de toshop en mode 8 bits et 16 bits considère les valeurs de niveaux de gris du fichier image d'entrée sur une échelle linéaire, et effectue ses calculs dans cette hypothèse. Ce n'est pas le cas en mode 32 bits (que j'utilise jamais) où la correction gamma est prise en compte dans les calculs.
Mais au final, il y a incroyablement peu de différences sur le résultat visuel du redimensionnement sur la plupart de "vraies" images issues d'appareils photo (voir 1er lien). Pour des images trafiquées ou de tests par contre, il semble qu'il soit facile de mettre en évidence (et de façon caricaturale avec celle du Dalai Lama du 2ième lien) la différence entre les deux méthodes :
http://www.glennchan.info/articles [...] rLight.htm
http://www.4p8.com/eric.brasseur/gamma.html
http://www.teamten.com/lawrence/graphics/gamma/

 

NB : j'ai obtenu ces liens grace à ce post :
http://www.luminous-landscape.com/ [...] opic=27590

 

knweiss a dit :

Citation :

Basically, what they both are saying is that the image scaling algorithms used in most image processing software (e.g. Photoshop CS3, Gimp, etc) are wrong because they operate in the assumption that luminosity (0-255) is linear and 50% gray is 127 whereas in sRGB it actually is 186. You can actually measure this with the light meter of your DSLR: Set it to Av mode and compare the shutter speed of a pure white (255) image with the shutter speed of a pure 127 gray and a pure 186 gray image. You will see that the 127 image has 4x the shutter speed whereas the 186 image has a 2x shutter speed i.e. half the brightness (50% gray).

 

What this means: If you have an image with a black&white checkerboard pattern (0 and 255) and resize this image to 50% the resulting image should consist of 186-gray pixels (to have the same luminosity as the original). However, with most programs you get 127==0.5*(0+255) gray because they treat luminosity as a linear space whereas in sRGB it is a exponential with gamma 2.2 (see the links for elaborate explanations).

 

Tiens, le coup du damier noir et blanc ! :sol:

 

cdlt,
GBo

Message cité 1 fois
Message édité par GBo le 29-10-2011 à 11:38:03
n°4425867
Froooom
Posté le 29-10-2011 à 14:43:03  profilanswer
 

GBo a écrit :


L'outil info affiche la valeur 8 bits, ça ne représente pas la valeur réelle du fichier en 16 bits ou en 32 bits.  
Le curseur de gamma dont je parlais c'est quand on passe de 32 bits à 16 bits (et il fallait mettre 1 dans mon cas).


Ah d'accord ... C'est plutôt trompeur comme façon de faire les choses ... Afficher une valeur 16bits avec des entier de 0 à 255  [:madoxav]  
 

GBo a écrit :


En bref ce que j'ai compris après un surf court mais intense :  
Le redimensionnement de toshop en mode 8 bits et 16 bits considère les valeurs de niveaux de gris du fichier image d'entrée sur une échelle linéaire, et effectue ses calculs dans cette hypothèse. Ce n'est pas le cas en mode 32 bits (que j'utilise jamais) où la correction gamma est prise en compte dans les calculs.
Mais au final, il y a incroyablement peu de différences sur le résultat visuel du redimensionnement sur la plupart de "vraies" images issues d'appareils photo (voir 1er lien). Pour des images trafiquées ou de tests par contre, il semble qu'il soit facile de mettre en évidence (et de façon caricaturale avec celle du Dalai Lama du 2ième lien) la différence entre les deux méthodes :
http://www.glennchan.info/articles [...] rLight.htm
http://www.4p8.com/eric.brasseur/gamma.html
http://www.teamten.com/lawrence/graphics/gamma/
 
NB : j'ai obtenu ces liens grace à ce post :
http://www.luminous-landscape.com/ [...] opic=27590


 
Ouch, très intéressant et dense tes liens ! Prout disait vrai lorsqu'il prétendait que beaucoup de logiciels pourtant vendu à prix d'or ne font pas de super resize.
En ce qui me concerne "Aperture sucks" [:spamafote]


---------------
Flick R
n°4426276
Totoche17
Posté le 30-10-2011 à 10:32:56  profilanswer
 


 

GBo a écrit :

La depth map comme vue au-dessus (le lien ptgrey) se construit à partir de deux images de deux points de vue légerement différents, mais chacune à forte PdC car tout doit être bien net : avec un 5D ce serait au grand angle bien fermé !
 
Si quelqu'un s'y connait dans ces questions, je propose le topic des experts pour continuer :
http://forum.hardware.fr/hfr/Photo [...] 0670_1.htm
 
cdlt,
GBo


 
 
Il existe un produit grand public qui utilise déjà ce principe de depth map : la Kinect de Microsoft.
 

n°4426280
alainphoto
Posté le 30-10-2011 à 10:40:53  profilanswer
 

Bon je cherche des liens vers des gens/des technos faisant de la 3D avec deux reflex et avec des grandes ouvertures.
 
L idee c est de faire un portrait normal, par exemple 5D2 + 85mm @ f2.0, focus sur l oeil (en tant que telle cette image est deja exploitable pour moi, il ne s agit pas de la rattrapper mais de l ameiliorer au dela de ce qui est possible avec un seul appareil).
Au meme moment, prendre une photo legerement (?) decallee avec exactement le meme matos (voir deux fois plus, ca peut etre un 5D2 a droite et un autre a gauche, on va supposer que tout le monde fait - plus ou moins miraculeusement - le focus sur le meme point ie l iris de l oeil droit du sujet).
 
Au final quels effet sereint possibles avec ce set up ?  
Pourait on donner un peu de liberte au fond (le fond deviendrait legerement mobile) ? ou au sujet (le visage pourrait pivoter legerement) ? etc ?
 
Connaissez vous des gens qui font ca ?


---------------
Photographie du Japon
n°4426281
GBo
Posté le 30-10-2011 à 10:45:56  profilanswer
 

Totoche17 a écrit :


Il existe un produit grand public qui utilise déjà ce principe de depth map : la Kinect de Microsoft.


Salut Totoche,
Yes, mais je reprécise le but, est-ce que quelqu'un connait une application photographique (réussie de préférence, au niveau esthétique ou créatif), du type de ce dont parle Samsung*, où on utiliserait deux appareils pour faire une depth map, puis ensuite une application d'un flou artificiel mais progressif autour du sujet, fonction de la distance des éléments du décor par rapport à l'appareil, telle que consignée dans la depth map.
 
(*) http://www.petapixel.com/2011/07/1 [...] cond-lens/
 
Edit : Grilled par Alain, du coup je vois qu'on ne parle pas de la même chose que le truc de Samsung puisque la contruction d'une depth map nécessite des images de départ nettes partout, ce qui ne sera pas son cas

Message cité 1 fois
Message édité par GBo le 30-10-2011 à 11:00:54
n°4426284
alainphoto
Posté le 30-10-2011 à 10:53:43  profilanswer
 

yep, mon but est pas de partir de deux images completement nettes, mais d ajouter une dimension a une image fortement ouverte (f1.4-1.8 en grand angle, f1.8-2.5 en tele) :)

 

J ai regarde les trucs de Point Grey mais c est des petits capteurs, petits objos, oriente video, et cher, pas ce que je cherche. Moi je vois plutot 2-3 boitiers APS-C au minimum avec des objos lumineux genre 50/85mm :)

 

edit : Par exemple j imagine une image fixe mais dans laquelle on pourrait un peu se deplacer ...
tiens d ailleurs, les gens qui prennent un sujet avec plein d appareils a la fois, ils arrivent a recomposer ca en une scene 3D, visible par exemple en flash ?


Message édité par alainphoto le 30-10-2011 à 10:55:26

---------------
Photographie du Japon
n°4426307
-cas-
Bescherelle proof
Posté le 30-10-2011 à 11:48:17  profilanswer
 

on peut  créer un depth map (carte de profondeur) avec un logiciel de dessin et le mouliner à une seule photo pour créer un autostéréogramme (je sais plus comment on fait mais j'avais vu un tuto video). Donc pour faire un flou artificiel comme ce que veut faire GBo ça devrait marcher si le depth map est réussis. On peut aussi recréer la scene entièrement en 3D ce qui nous permettra d'avoir un beau depth map (j'ai essayer de me mettre à Blender pour faire des depth map mais ce log 3D est trop compliquer pour moi, j'ai abandonner)


Message édité par -cas- le 30-10-2011 à 11:51:04

---------------

n°4426319
Froooom
Posté le 30-10-2011 à 11:59:38  profilanswer
 

GBo a écrit :


Salut Totoche,
Yes, mais je reprécise le but, est-ce que quelqu'un connait une application photographique (réussie de préférence, au niveau esthétique ou créatif), du type de ce dont parle Samsung*, où on utiliserait deux appareils pour faire une depth map, puis ensuite une application d'un flou artificiel mais progressif autour du sujet, fonction de la distance des éléments du décor par rapport à l'appareil, telle que consignée dans la depth map.
 
(*) http://www.petapixel.com/2011/07/1 [...] cond-lens/
 
Edit : Grilled par Alain, du coup je vois qu'on ne parle pas de la même chose que le truc de Samsung puisque la contruction d'une depth map nécessite des images de départ nettes partout, ce qui ne sera pas son cas


 
Encore une fois merci pour le partage de tes super lien Gbo. Ta petite vidéo sur la stéréovision m'a rappelé avec nostalgie mon stage de 2nd année d'école d'ingé au Japon :cry:  
 
D'ailleurs mes résulats se rapprochaient plus de ceux de la vidéo que de l'étrangement très propre depth map de Middlebury
 
Edit: Et ce n'était pas une application photographique


Message édité par Froooom le 30-10-2011 à 12:02:04

---------------
Flick R
n°4426380
GBo
Posté le 30-10-2011 à 13:09:00  profilanswer
 

@ Froooom : merci
@ -cas- : oui bonnes remarques. Blender j"ai même pas voulu essayer pour ma part, par contre (et c'est pas vraiment la même chose hein) je te conseille d'essayer Google SketchUp, là c'est bien rentré pour moi (grace aux tutos vidéos en particulier), et on peut y coller ensuite des moteurs de rendu photoréaliste plus ou moins complexes. Je suis sûr qu'il y a des trucs à explorer dans les relations entre photographie et modélisation !
@ alainphoto : je commence à comprendre ce que tu veux faire. Mais j'ai peur qu'il faille plein d'appareils et peu espacés les uns des autres pour bien faire.
A moins de chercher à '"interpoler" des images pour économiser sur le nombre d'appareils, et là le pb de base à résoudre est peut-être de même nature qu'ici (même si le but est différent) :
http://www.cv.info.hiroshima-cu.ac [...] index.html
...ça n'a pas l'air simple mais j'ai pas creusé.

 

Edit : ou alors c'est juste pour faire une sorte de travelling où le personnage de devant se détache très lentement de divers arrières plans avec des vitesses différentes, un peu comme dans un dessin animé classique où on simulait la profondeur avec une série de plans 2D qui glissent les uns sur les autres ? j'ai cru voir ça dans certains docu récents où on anime des photos historiques ou des tableaux célèbres de cette façon, je ne sais pas avec quoi c'est fait, mais c'est que du post-traitement, forcément. Hélas dans ce système la faible PdC va être génante, sachant qu'il n'y aura pas de frontières nettes entre les divers arrière-plans.

Message cité 1 fois
Message édité par GBo le 30-10-2011 à 13:47:51
n°4426403
alainphoto
Posté le 30-10-2011 à 13:27:32  profilanswer
 

merci pour le lien, c est drapalise :)
 
je vois l interet des light field, mais c est pas ca que je cherche ... peut etre de la 3D plus conventionnelle, faut peut etre regarder ce qui se fait en video 3D et extrapoler a la photo ...


---------------
Photographie du Japon
n°4426464
GBo
Posté le 30-10-2011 à 14:09:10  profilanswer
 

Dans le lien, certes le but n'est pas le même mais une partie des moyens utilisés peuvent être intéressants pour ton cas : la plus-value par rapport à un appareil plénoptique c'est qu'ils arrivent à créer des points de vue intermédiaires (a priori valables) avec très peu de prises de vue réelles : 'If we use limited number of input images [...] we generate a lot of picutures between given viewpoint using interpolation"
Après ils s'en servent pour autre chose (générer du flou par addition des différentes vues dont les interpolées), alors que toi tu voudrais voyager dans les vues (par un applet par exemple), c'est donc juste leur étape d'interpolation qu'il faudrait appronfondir, interpolation rendue nécessaire puisque tu n'aurais que deux ou trois appareils en simultané. Il faudra voir aussi dans quelle mesure leur truc est applicable à des images d'input à faible PdC (il n'y a pas cette difficulté chez eux).


Message édité par GBo le 30-10-2011 à 17:33:14
n°4428128
-cas-
Bescherelle proof
Posté le 01-11-2011 à 00:08:49  profilanswer
 

GBo a écrit :


@ -cas- : oui bonnes remarques. Blender j"ai même pas voulu essayer pour ma part, par contre (et c'est pas vraiment la même chose hein) je te conseille d'essayer Google SketchUp, là c'est bien rentré pour moi (grace aux tutos vidéos en particulier), et on peut y coller ensuite des moteurs de rendu photoréaliste plus ou moins complexes. Je suis sûr qu'il y a des trucs à explorer dans les relations entre photographie et modélisation !

merci
Mais en fait j'ai arreter de faire des autostéréogramme. Si j'en refait ce sera pas en 3D de toute façon..
 
sinon pour ton floue, une idée: tu prend la scene avec un compact 3D (2 objectifs) et avec tu créer ta carte de profondeur que tu utilisera ensuite pour ta belle photo prise avec ton reflex. Je pense pas que la carte de profondeur aie besoin d'etre tres précise pour ce que tu veut faire et il suffira juste de la réajuster pour qu'elle se colle parfaitement a ta photo de reflex et comme ca tu te fait pas chier avec 2 reflex
 
edit: heu non ca va pas ce que je dit
si ta besoin de deux reflex c pour des sujets mobiles je présume (sinon un seul reflex que tu décale pour la 2eme photo ca devrait le faire) mais ds ce cas faudra déclancher le compact au même moment que le reflex, c'est plus compliquer a faire...


---------------

n°4433116
Proute2000
¡ sǝssǝɟ sǝɯ ɹǝʇɐɯ ǝp ǝʇǝɹɹɐ
Posté le 03-11-2011 à 21:48:55  profilanswer
 

Bonsoir
 
Est-ce que les capteurs CMOS ont bien la particularité d'être "Lu/vidé" dans n'importe quel sens... voire même pourquoi pas... d'utiliser une carte pour lire suivant une ordre parfaitement quelconque ?

n°4433136
flo'r
Je stalke pas, j'explique.
Posté le 03-11-2011 à 21:57:41  profilanswer
 

en principe oui mais en pratique ça dépend de l'implémentation du contrôleur intégré :o


---------------
Topic de vente M42 / Contax Yashica / Minolta / Whatever <-- click here !
n°4433536
Proute2000
¡ sǝssǝɟ sǝɯ ɹǝʇɐɯ ǝp ǝʇǝɹɹɐ
Posté le 04-11-2011 à 08:20:11  profilanswer
 

Ainsi à l'instar de la technologie EXR de Fuji qui capture la lumière via deux ensembles de photosites avec un temps des poses différentes,

 

Il serait donc possible d'étendre le principe où chaque photosite est un temps de pose différents !

 

Ceci simplement en les lisant dans un ordre spécifique à une certaine vitesse.

 

Cet ordre serait obtenu via une capture préalable qui estimerait quelle zone de l'image sont trop sombres ou trop lumineux.

 

Evidemment on connait tous les contraintes photographiques de ce type de photos (sujet immobiles etc...) Mais je rappelle que Fuji fait déjà un truc similaire et personne ne parle de problème particulier sur les photos courantes.

 

Ceci permettrait d'avoir une image HDR en une seule "pose"... ou encore d'avoir une image très propre avec un capteur moyen !  :love:
(Booster les noirs et ne pas brûler les blancs)


Message édité par Proute2000 le 04-11-2011 à 08:39:13
n°4433660
flo'r
Je stalke pas, j'explique.
Posté le 04-11-2011 à 09:26:52  profilanswer
 

[:prozac]
Et comment tu fais pour assigner un temps de pose différent à chaque photosite ?


---------------
Topic de vente M42 / Contax Yashica / Minolta / Whatever <-- click here !
n°4433673
cd5
Modérateur
/ g r e w t
Posté le 04-11-2011 à 09:29:53  profilanswer
 

Tu décides en fonctions de la "valeur" de chaque photosite, au final t'as une belle photo toute grise [:toussa]


---------------
Gal @HFR | C'est l'effet main © P®oogz | Vends rien
n°4433677
flo'r
Je stalke pas, j'explique.
Posté le 04-11-2011 à 09:32:35  profilanswer
 

L'idée en soi n'est pas con (Fuji l'a fait mais pour 2 sensibilités différentes, et toujours sur les mêmes photosites) mais en principe, c'est une belle usine à gaz.


---------------
Topic de vente M42 / Contax Yashica / Minolta / Whatever <-- click here !
n°4433685
cd5
Modérateur
/ g r e w t
Posté le 04-11-2011 à 09:34:03  profilanswer
 

La mise en oeuvre la plus simple (sauf au niveau de la fonte du capteur, évidemment), c'est d'avoir des photosites de taille différentes comme sur les super ccd :D


---------------
Gal @HFR | C'est l'effet main © P®oogz | Vends rien
n°4433718
flo'r
Je stalke pas, j'explique.
Posté le 04-11-2011 à 09:40:21  profilanswer
 

On pourrait déjà le faire expérimentalement de manière logicielle. Après tu prends les algo de blinding de l'espagnol qui a pondu Zeronoise et tu as des images sans bruit et avec une dynamique énorme.


---------------
Topic de vente M42 / Contax Yashica / Minolta / Whatever <-- click here !
n°4433768
Proute2000
¡ sǝssǝɟ sǝɯ ɹǝʇɐɯ ǝp ǝʇǝɹɹɐ
Posté le 04-11-2011 à 10:12:49  profilanswer
 

flo'r a écrit :

[:prozac] Et comment tu fais pour assigner un temps de pose différent à chaque photosite ?

le prozac était vraiment utile pour poser une question !? :/

 

Je ne comprends pas ce que tu ne comprends pas.

 

J'ai dit que l'appareil prenait une photo standard avant... et donc ceci permet d'en déduire les zones à sur ou sous exposer  [:spamafote]

 

Ensuite tu lis les photosites au temps qu'il faut  [:spamafote]²

 
cd5 a écrit :

(...) au final t'as une belle photo toute grise [:toussa]

Exacte, t'as au final un Raw classique avec des valeurs très semblables. Plus exactement des valeurs élevés et donc peu bruités... à enregistrer avec leur temps distinct !


Message édité par Proute2000 le 04-11-2011 à 10:19:08
n°4433814
flo'r
Je stalke pas, j'explique.
Posté le 04-11-2011 à 10:40:51  profilanswer
 

C'est idiot : le temps d'exposition optimal à appliquer à chaque photosite sera faussé par le bruit de la photo initiale.


---------------
Topic de vente M42 / Contax Yashica / Minolta / Whatever <-- click here !
n°4433879
Proute2000
¡ sǝssǝɟ sǝɯ ɹǝʇɐɯ ǝp ǝʇǝɹɹɐ
Posté le 04-11-2011 à 11:20:55  profilanswer
 

flo'r a écrit :

C'est idiot : le temps d'exposition optimal à appliquer à chaque photosite sera faussé par le bruit de la photo initiale.

What !? Mais qu'est ce que tu vas cherches encore !?
 
Les valeurs de la photo initiale servent seulement à calculer le temps de pose optimal pour chaque photosites. Elle n'a pas plus d'impacte sur le bruit que la photo précédente d'une rafale !  :heink:  

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  18  19  20  ..  23  24  25  26  27  28

Aller à :
Ajouter une réponse
 

Sujets relatifs
Sortie photo - Quelques idées à picorer[Topic] Les compacts "experts"
Réflexs experts vs réflexs pro d'hierIdées / Suggestions - Scéance Photo Fille de 4 mois....
Conseils d'achats, besoin d'experts !Y'a t-il un marché pour les photos d'amateurs/experts ??
Faible autonomie avec piles, des idées ?Idées encadrement panoramas
[Besoin aide / idées] Chargement de pellicule dans un APS (FuIdées pour le concours numéro 5
Plus de sujets relatifs à : On a pas de pétrole mais on a des idées : le topic des experts


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR