Te comento
@ariznaf :
Siempre disparo en RAW + JPG , el Jpg aunque no lo necesito para nada ( revelo siempre en RAW ) en camara tengo en todos los valores para el Jpg en neutros, incluido el rango dinamico, etc.., para que el histograma que veo en el visor no este contaminado con los valores del jpg.
En estas dos condiciones cojo dos cámaras La Fuji X H1 y la Sony A7III y con dos objetivos con la misma focal y su equivalente en APS, pongo las dos cámaras con el exposimetro en ponderado en el centro y busco una pared blanca homogéneamente iluminada, también lo podría hacer una escena por ejemplo mi calle desde la ventana, pero podría ser que el exposimetro de la cámara no tomara exactamente la misma cantidad de escena, así tomando una pared homogénea en su textura e iluminación aunque un fotometro puede abarcar 12 % del centro de la escena y el otro el 15% este no afecta para que haya medida en la exposición calculado por los fotometros.
Elijo por ejemplo la Fuji y la exposición que me da ( llevando la flecha del indicador de exposición acero ) por ejemplo es a ISO 200, f4, 1/60 , pues bien la Sony necesito algo menos de luz ISO 200, F4, 1/80 si abro la foto en Camara RAW con los mismos parámetros todos a cero incluido la curva en neutro, salen con la misma iluminación.
Ahora bien si hago las dos fotos con los mismos valores ISO 200 F4 y v 1/60 si abro las fotos en Camara Raw ¿ Tendrían que salir las dos fotos igual ? pues no, la foto de fuji sale un poco más oscura
Lo del Gamma 2,2 en el monitor me da igual ya que normalmente utilizo siempre el mismo y los tengo calibrado con Spider 5 Pro. Por lo que creo en este análisis no afecta absolutamente para nada.
Como siempre he dicho estas diferencias no significan nada, además como la exposición se mide en el sensor, de la diferencia de medida, nunca me hubiera dado cuenta, si solo tuviera una sola cámara, pero cuando hago comparaciones sucede lo expuesto anteriormente.
Pues como te decía (y por lo que he leído a algunos expertos en el tema de la captura digital como Guillemor Luijk o Auerliene Pierre que es uno de los principales desarrolladores de darktable en este momento) no hay ninguna especificación sobre el ISO que se refiera al raw.
El fabricante podría situar el punto gris en cualquier punto de intervalo de 0 a 14 bits (o más concretamente desde el punto negro al punto de saturación que estará en alguna posición intermedia de esos 14 bits con que las cámaras actuales suelen codificar los raw).
Lo único que habría de cumplir es que en el jpeg generado el punto gris esté en su sitio (comúnmente se dice el 50% pero para una gamma 2,2 es un poquito por debajo algo así como el 45% si no recuerdo mal).
Cuando hablo de gamma no hablo de la gamma del monitor si no de la gamma de codificación del archivo y la aplicada en el procesamiento del raw por la cámara (que puede ser algo diferente, de hecho lo será para poder llevar el gris a su sitio).
Así que por lo que dicen y aunque a mi también me suena extraño, no dos cámaras no tienen porque dar la misma exposición para las mismas condiciones de luz. Uno esperaría que en la misma escena todos dieran la misma abertura, velocidad e ISO, parece lo lógico, pero por lo que se ve no es así, dado que cada uno puede situar en el raw ese punto gris donde quiera.
El raw no es ni claro ni oscuro, porque depende del procesado digital que se le aplique y principalmente de esa curva base que aplican la mayoría de los programas reveladores al principio del revelado, aumentando el contraste de las sombras y disminuyendo el de las luces.
Si lo abres con dos reveladores distintos verás dos cosas diferentes, aunque muchos tratan de emular el revelado neutro de la cámara (en su revelado estándar sin tocar nada).
El sensor es lineal, el ojo no.
Se suele decir que esa curva gamma se aplica para emular la respuesta del ojo.
En realidad no es así, puesto que si mantuviéramos la imagen como lineal y nuetro monitro también fuera lineal (gamma 1) y capaz de reproducir todos los tonos y contrastes, la imagen que veríamos sería igual que la escena original, aunque no aplicáramos ninguna curva gamma (de hecho sería la mejor forma de tener una reproducción lo más fiel posible).
El origen de aplicar la curva gamma a los jpeg es que los monitores CRT no eran lineales, se comportaban siguiendo una curva exponencial llamada curva gamma.
Los monitores de windows tenían una gamma 2,2, los de mac una gamma 1,8.
En el jpeg se aplicaba una curva de procesado inversa a la del monitor, por lo que al mandar esos datos directos al monitor (en esas primeras épocas no había procesado de color y estas historias sofisticadas actuales) el resultado de la respuesta era lineal y los tonos reproducidos correctos.
Pero si veías un jpeg en un monitor de mac se veía diferente al de windows, más claro.
En mac los jpeg tenían gamma aplicada 1,8 y en windows 2,2.
Además de paso se conseguía otra cosa: los jpeg no tienen mucho niveles para cada color, como son de 8 bits sólo tienen 256 niveles.
Al aplicar la curva gamma estamos dedicando más niveles a las sombras que a las luces, y también el ojo es más sensible a las sombras que a las luces, luego tolera mejor una falta de detalle tonal en las luces que en las sombras (mientras que en el raw lineal tenemos el mismo número de niveles para los que están por debajo del punto medio que los que están por encima).
Por tanto al aplicar la curva gamma tenemos un mayor número de niveles en las sombras y disimulará mucho mejor el hecho de sólo tener 256 gradaciones.
Actualmente eso podría ser obviado y podríamos trabajar en lineal y con un tiff de 16 bits no necesitaríamos esas manipulaciones. De hecho algunos programas como darktable ya trabajan en lineal en la mayor parte de su flujo.
Aún así sigue siendo necesario aplicar una curva gamma o logarítmica en las fases finales, para visualizar la imagen, simplemente por que la escena y la cámar captura mucho más rango dinámico del que son capaces de mostrar los monitores o las impresiones (el ojo puede tener 20 EVs de rango dinámico y la cámara 14, un monitor normalmente 8, algunos 10 como mucho, y una impresión pues menos, unos 6).
Por tanto hay que comprimir ese rango para mostrarlo en el de salida mucho menor, y el ojo tolera mejor la pérdida de información en las altas luces que en las sombras, por lo que se disimulará mucho mejor esa pérdida de información aplicando una curva logarítimica o gamma en la fase final antes de mostrar la imagen.