Duda sobre las simulaciones de película de Fuji - LUTs

Guillermo Luijk

Fujista de renombre
Una pregunta sobre el Reala Ace y las simulaciones de película de Fuji en general: según la propia Fuji la simulación más "estándar" sería la Provia (Get to Grips With Film Simulation Modes | FUJIFILM Exposure Center – USA). Pero con esto qué quiere decir Fuji?
  • Que los JPEG más estándar y equilibrados que puede producir la cámara se obtienen seleccionando dicha simulación Provia?
  • O que de entre las simulaciones de película (que incluyen un plus de cocinado respecto a los JPEG estándar de cámara), la Provia es digamos la más equilibrada?

Lo comento por lo siguiente: como ejercicio quiero calcular LUTs para emular sobre cualquier imagen y en cualquier cámara las 19 simulaciones de película que comentan en la web de Fuji. Pero el cálculo de cada LUT necesita un punto de partida, es decir una imagen origen la cual la LUT debe convertir a la imagen de la simulación concreta. Es razonable tomar como imagen origen para el cálculo de esa LUT la versión Provia de la imagen ejemplo? o Provia ya es una salida muy cocinada y sería mejor usar un JPEG de cámara más neutro?

PD: echo en falta en el foro una sección que trate de procesado de imagen. Hay secciones de cámaras concretas y galerías de fotos, pero no sabía dónde colocar esto.

Salu2!
luts.jpg
 
La simulación elegida por defecto, es decir, si no se elige ninguna, es Provia. De hecho, (por lo menos en la X100F y la XT3, las cámaras que tengo) también se llama "estándar". No conozco las simulaciones más nuevas a partir de Eterna, así que no sé si esto ha cambiado luego.
Es decir, y tal como lo entiendo yo: la simulación Provia es el JPG estándar de la cámara.

No sé si he contestado lo que buscabas....
 
FotoPrecios mínimos del día.
La simulación elegida por defecto, es decir, si no se elige ninguna, es Provia. De hecho, (por lo menos en la X100F y la XT3, las cámaras que tengo) también se llama "estándar". No conozco las simulaciones más nuevas a partir de Eterna, así que no sé si esto ha cambiado luego.
Es decir, y tal como lo entiendo yo: la simulación Provia es el JPG estándar de la cámara.

No sé si he contestado lo que buscabas....
Sí gracias, era justo eso. O sea que Provia es el JPEG estándar más neutro; tiene sentido basar en él las transformaciones. En general veo casi todas estas simulaciones bastante sutiles para la importancia que se les da, pero bueno. Voy a ver lo que sale.

Gracias!
 
Sí gracias, era justo eso. O sea que Provia es el JPEG estándar más neutro; tiene sentido basar en él las transformaciones. En general veo casi todas estas simulaciones bastante sutiles para la importancia que se les da, pero bueno. Voy a ver lo que sale.

Gracias!
Antes no me he dado cuenta de añadir: si neutro quiere decir "plano", la simulación más plana es Eterna (en los modelos que no la tenían era la Pro Neg. Std).

A mí en esos ejemplos que añades también me parecen diferencias muy sutiles... Las diferencias cambian mucho según el tipo de luz y los colores de la escena... pero eso solo según mi experiencia.

Pues seguiré atento el hilo si publicas resultados....
 
Antes no me he dado cuenta de añadir: si neutro quiere decir "plano", la simulación más plana es Eterna (en los modelos que no la tenían era la Pro Neg. Std).
Digamos que la imagen original ideal sería aquella que mejor represente las imágenes (JPEG o revelador RAW) promedio que puedan hacerse con cualquier cámara, porque el objetivo es poder aplicar estos procesados a imágenes aleatorias que uno cree con otras cámaras,... Veo que Eterna es bastante desaturada, así que me parece que Provia es la mejor referencia. En cualquier caso he tomado Provia para una primera prueba :D

Lo que he hecho es lo siguiente:
  • He tomado de la web de Fuji la imagen de las casetas de colores en sus versiones Provia y Eterna Bleach Bypass (no por nada, sino porque es la que más se diferencia de Provia lo que resulta más complicado de modelar).
  • Con ambas imágenes he entrenado una red neuronal (2 etapas con 32 nodos por etapa). El objetivo es ver si esta red es capaz de emular el proceso que lleva de Provia a Eterna Bleach Bypass con fidelidad.
  • Para comprobar lo bien/mal que funciona la emulación, se la aplico a una imagen nueva que la red neuronal nunca vio durante su entrenamiento (el burro), comparando el resultado con el proceso original Eterna Bleach Bypass de Fuji.
El resultado es muy bueno, aunque con bastante más desviación que lo que me suele salir con este tipo de proceso. Pero para haberlo emulado con una sola imagen de la Web de Fuji no está nada mal (se trata de ver cómo de parecidos son los dos burros del final):


eternableachbypass_NN.jpg



El paso siguiente que voy a dar es usar la red neuronal para construir un archivo LUT estándar (.cube) que pueda usarse en cualquier programa o proceso que soporte LUTs, para aplicar la emulación Eterna Bleach Bypass a cualquier imagen. Estoy viendo que las LUT existen en distintas longitudes (número de muestras del archivo .cube). Alguien que suela manejarlas sabe el estándar?

Salu2!
 
Última edición:
buenas, yo justo te iba a decir que para mi, el más "estandar" es el PRO NEG STANDARD. que tiene una curva y colores mas neutra, el eterna tiende a rojos magentas mucho, nada que ver con el pro neg.
El provia es el standard de siempre, porque es la simulación base que traían en la primera xpro1, y es con la que empezaron, digamos.
Pero lo que si que creo, igual que el compañero, es que la foto que han usado como ejemplo de simulaciones me parece muy pobre, depende de la imagen, los colores y luz que tenga, cambia mucho la simulación, mucho más que lo que se ve en la imagen de tus ejemplos.

El tema de los LUT no se decirte, yo uso a veces para ediciones rápidas de video, pero no se decirte nada de las longitudes, ahí me pierdo.
 
la foto que han usado como ejemplo de simulaciones me parece muy pobre, depende de la imagen, los colores y luz que tenga, cambia mucho la simulación, mucho más que lo que se ve en la imagen de tus ejemplos.
Si tienes una imagen donde se hagan notar las propiedades de alguna de las simulaciones podría probar cómo funciona la red con ella. Necesitaría la versión Provia y la simulación que pretendas emular de la misma imagen, idealmente que casen píxel a píxel.

Salu2!
 
Voy a buscar alguna imagen en la que se vea más. Si te saco del mismo RAW las diferentes simulaciones a jpg te vale verdad? son los mismos parametros que haria la camara, o eso entiendo
 
Te dejo aqui una carpeta de DRIVE:
TEST FUJISTAS SIMULACIONES LUTS

he cogido tres fotos que creo que cumplen mejor lso diferentes rangos de color y luces, y estan sin ningún ajuste, ni contraste ni nada, solo una tiene subida un pelón la exposición.
Luego he exportado cada una de ellas con una simulación diferente, para que las tengas en calidad, van en JPG a tamaño original, y en perfil "Pro Photo RGB".
Podria subir en TIFF, pero se van de tamaño mucho :O O:

espero que te sirva y veas como en esas las diferencias de color, son mayores que en las de las casetas.
 
reala ace no tienen, porque no me aparece en Camera Raw, no se si porque las fotos son anteriores o que...

EDIT: no me he dado cuenta, y en realidad puedo exportar a todas las simulaciones, si te hace falta [mention]Guillermo Luijk [/mention] dime, menos Reala Ace, podría a todas.
 
Última edición:
Una pregunta sobre el Reala Ace y las simulaciones de película de Fuji en general: según la propia Fuji la simulación más "estándar" sería la Provia (Get to Grips With Film Simulation Modes | FUJIFILM Exposure Center – USA). Pero con esto qué quiere decir Fuji?
  • Que los JPEG más estándar y equilibrados que puede producir la cámara se obtienen seleccionando dicha simulación Provia?
  • O que de entre las simulaciones de película (que incluyen un plus de cocinado respecto a los JPEG estándar de cámara), la Provia es digamos la más equilibrada?

Lo comento por lo siguiente: como ejercicio quiero calcular LUTs para emular sobre cualquier imagen y en cualquier cámara las 19 simulaciones de película que comentan en la web de Fuji. Pero el cálculo de cada LUT necesita un punto de partida, es decir una imagen origen la cual la LUT debe convertir a la imagen de la simulación concreta. Es razonable tomar como imagen origen para el cálculo de esa LUT la versión Provia de la imagen ejemplo? o Provia ya es una salida muy cocinada y sería mejor usar un JPEG de cámara más neutro?

PD: echo en falta en el foro una sección que trate de procesado de imagen. Hay secciones de cámaras concretas y galerías de fotos, pero no sabía dónde colocar esto.

Salu2!Ver el adjunto 119891
No creo que Fuji se refiera a eso.

Más bien a que provis era de las emulsiones más usadas por su versatilidad, porque se adaptaba bien a muchas situaciones si exageraciones.

Velvia daba unos colores muy vividos y llamativos, pero en retrato podía generar tonos de piel poco naturales, otras eran más para retrato con tonos de piel naturales, menos contrastada...

Las emulaciones de Fuji, según lo leído en lo que ellos comentan y por otros sitios, no son simples transformaciones de color o chroma.

La respuesta del negativo no era solo que el verde fuera más saturado y el azul también, si no que también el tono cambia según como se comporta ante cada combinación de color y tono.
Por ello no sería suficiente con una lut, se necesitaría una lut3D.

Pero además de eso también tratan de emular el grano, respuesta al ruido y poder resolutivo, al parecer.
Eso no lo puede hacer la lut y no se puede generalizar a varios reveladores

Pero tener una lut3D sería un buen punto de partida.

Entiendo que la imagen de referencia ha de ser un revelado lo más neutro posible y en un espacio de color amplio y común.

Lo suyo sería partir de una imagen calibrada con una carta de color para que fuera lo más fiel a los colores reales y en rec2020 por ejemplo (hoy el standard en el mundo video) y tal vez con curva lineal.

Así todo el mundo tendría una referencia común lo más fiel posible a los colores originales, que se puede hacer en cualquier revelador (lo de lineal no tengo claro que se pueda en todos).

Luego aplicas la lut3D y tendrías ya la emulación.

A falta de que tengas (el usuario) el perfil de color para calibrar la imagen para la situación de luz y cámara, pues escojes un revelado loas metro y fiel posible (perfil fiel en canon, por ejemplo).
 
Hablo siempre de LUTs 3D. Una LUT 1D son las 3 curvas RGB de toda la vida y no dan los grados de libertad necesarios para modelar una traslación de color (lo comenté aquí). Quería además producir la LUT de salida en formato texto .cube y también gráfico HaldCLUT, que algunos programas la prefieren y es más gráfica de visualizar.

El grano no me interesa emularlo si es que Fuji lo hace (no he visto grano ni he visto que Fuji hable de él). En realidad las emulaciones de Fuji son solo una excusa para hacer este tipo de ejercicio; habría preferido emular algún look cinematográfico más radical pero a falta de un antes/después he tomado lo de Fuji. El resultado para haber usado una sola imagen de su web me parece muy bueno, pero habría sido mejor tener una foto de una carta de colores IT8 que abarca más colores.

Con este tipo de transformaciones en realidad se tiene tanta libertad que puedes hacer una LUT que no solo aplique un toque de cromatismo final, sino que se puede hacer casi cualquier cosa. Tenía pensados varios ejercicios:
  • Revelado RAW para emular directamente cierto JPEG de cámara: una LUT que aplique un balance de blancos, la conversión del espacio de cámara (RAW) al de salida (sRGB,...) y cualquier procesado o ajustes posteriores que haga esa cámara. P.ej. una LUT "Canon".
  • Una LUT que aplique un calibrado de imagen preciso, llevando los datos RAW origen a los valores RGB normalizados esperables sobre una carta de color. Le he pedido a Hugo Rodríguez capturas de cartas IT8 y SuperChroma para hacer este ejercicio.
  • Convertir los valores RGB RAW de una cámara A en los de otra cámara B, para luego poder incrustar una imagen (o trozo) de imagen RAW de la cámara A en un RAW de la cámara B. Por ejemplo incrustar un RAW de Sony en un RAW de Canon y desmitificar lo de que los colores de cada fabricante sean muy distintos porque revelando el RAW Canon, la parte Sony debería dar colores muy simulares.

Pero bueno vamos a empezar por las recetas de Fuji. Quedan cosas por comprobar como si la red neuronal tiene la densidad adecuada.

Salu2!
 
Hablo siempre de LUTs 3D. Una LUT 1D son las 3 curvas RGB de toda la vida y no dan los grados de libertad necesarios para modelar una traslación de color (lo comenté aquí). Quería además producir la LUT de salida en formato texto .cube y también gráfico HaldCLUT, que algunos programas la prefieren y es más gráfica de visualizar.

El grano no me interesa emularlo si es que Fuji lo hace (no he visto grano ni he visto que Fuji hable de él). En realidad las emulaciones de Fuji son solo una excusa para hacer este tipo de ejercicio; habría preferido emular algún look cinematográfico más radical pero a falta de un antes/después he tomado lo de Fuji. El resultado para haber usado una sola imagen de su web me parece muy bueno, pero habría sido mejor tener una foto de una carta de colores IT8 que abarca más colores.

Con este tipo de transformaciones en realidad se tiene tanta libertad que puedes hacer una LUT que no solo aplique un toque de cromatismo final, sino que se puede hacer casi cualquier cosa. Tenía pensados varios ejercicios:
  • Revelado RAW para emular directamente cierto JPEG de cámara: una LUT que aplique un balance de blancos, la conversión del espacio de cámara (RAW) al de salida (sRGB,...) y cualquier procesado o ajustes posteriores que haga esa cámara. P.ej. una LUT "Canon".
  • Una LUT que aplique un calibrado de imagen preciso, llevando los datos RAW origen a los valores RGB normalizados esperables sobre una carta de color. Le he pedido a Hugo Rodríguez capturas de cartas IT8 y SuperChroma para hacer este ejercicio.
  • Convertir los valores RGB RAW de una cámara A en los de otra cámara B, para luego poder incrustar una imagen (o trozo) de imagen RAW de la cámara A en un RAW de la cámara B. Por ejemplo incrustar un RAW de Sony en un RAW de Canon y desmitificar lo de que los colores de cada fabricante sean muy distintos porque revelando el RAW Canon, la parte Sony debería dar colores muy simulares.

Pero bueno vamos a empezar por las recetas de Fuji. Quedan cosas por comprobar como si la red neuronal tiene la densidad adecuada.

Salu2!
También hay LUT2D que es lo que llaman LUT (en el darktable por ejemplo hay los dos módulos, lut y lut3D), las LUT1D todo el mundo las conoce por curvas, luego aparecieron las LUT 2D que mapeaban sólo el Hue o el Chroma y por último las LUT3D.

Si es LUT3D efectivamente son las adecuadas. Sospecho que eso es implemente lo que usa Fuji, aunque lo vienen llamando emulaciones de película. Pero sí, también comentan que emulan el grano y el grado de resolución del negativo.
En realidad creo que eso lo harán simplemente ajustando un poco los parámetros correspondientes de su programa de revelado y no es una emulación completa.

Tampoco a mi es algo que me interese especialmente la emulación de grano o grado de detalle, incluso las emulaciones las uso poco, más bien para tener una versión de partida o cuando no tengo ocasión de revelar y quiero mostrar la foto.


Como bien dices con esas LUT3D se puede aplicar cualquier efecto relacionado con tonos y color, cualquier tipo de look cinematográfico o piscodélico. Es lo que usan en realidad hoy día en el etalonaje en cine y lo que traen la mayoría de editores de video un poco serios.
No sé cómo lo haces tú, creo que sí, que lo suyo sería partir de una foto a una IT8 u otra carta calibrada similar.
Hacer el perfil de calibrado estándar para esa IT8 y luego aplicar la emulación deseada a esa IT8 con la cámara de fuji.
La LUT3D a calcular seriá la que transforme la imagen generada con el perfil calibrado de la IT8 en la imagen generada por la fuji.


Cuantos más parches tenga la carta de partida mejor.

Pero entiendo que así sólo tendrías en realidad una LUT2D que transforma sólo el color.
Para que realmente se tenga la respuesta completa de la película (si es que realmente fuji en sus emulaciones hace lo que dice) habría que tener varias fotos de esa carta con diferentes niveles de exposición, -3-2,-1,0,+1,+2,+3 por ejemplo.

Aunque sí que alguna cámara (mejor dicho sensor) pueda tener una mayor capacidad de resolución de color que otro, efectivamente las diferencias en color que vemos y todos notamos están más relacionadas con el procesado de la marca que con los filtros Bayer o el sensor, yo también lo creo.
 
Última edición:
Por partes:
  • Las LUT solo son una forma de almacenar la emulación de película por fuerza bruta, es decir especificando todas las combinaciones posibles de E/S (todas no obviamente, se muestrean con una definición dada y luego el programa de turno que aplique la LUT interpola). Gracias a eso pueden implementar cualquier procesado de imagen. Si Fuji las usa en las tripas de sus cámaras o no es lo de menos, sus emulaciones no provienen de LUTs sino de algoritmos.
  • Yo lo hago como he explicado arriba: a partir de una pareja de imágenes antes/después, modelo con una red neuronal el procesado que lleva de una a la otra. Es una simple regresión de R3 -> R3. Comentaba que usando una sola imagen de chichinabo de la web de Fuji (la de las casetas de colores), el resultado ya es muy bueno aplicado a terceras imágenes nunca vistas en el entrenamiento de la red neuronal (el burrito). Sería mejor haber contado con el antes/después de una carta de color con muchos parches, pero no la tengo. Intuyo que tener degradados ayuda mucho a la red neuronal; una carta de colores no los tiene. Me gustaría ver cómo influye eso.
  • Las LUT de las que hablo son solo un "volcado" de la red neuronal a un formato estándar conocido que cualquiera pueda aplicar (si cuenta con un programa que admita LUTs claro). Pero son solo eso, un repositorio del procesado emulado. El procesado quien lo implementa es la red neuronal, que son expertas en modelar procesos no lineales (como son estas emulaciones).

Añado el procesado aplicado a una imagen sintética con degradados mútiples y a una IT8 (arriba imagen original, abajo imagen con la simulación de película 'Eterna Bleach Bypass':

grangerimagebeforeafter.jpg



it8beforeafter.jpg


Salu2!
 
Última edición:
Sí, así, es simplemente es un mapeo de colores que te permite hacer cualquier transformación, incluso convertir el blanco en negro o el verde oscuro en azul brillante.

En realidad estimo que no sería necesario.

Bastaría con saber la curva de respuesta de cada capa de la película y la de los filtros bayer, pero seguramente sea más fácil y directo emplear la fuerza bruta.

La imagen de referencia entiendo que no ha de ser una imagen con una emulación (sea provia u otra) aplicada, si no una imagen con una reproducción de color lo más fiel posible al original (y a ser posible lineal, para evitar otros efectos). Así en cualquier cámara y con cualquier revelador podrías aplicar el perfil calibrado para generar esa imagen de color fiel a la que aplicar luego la lut3D.

La lut3d ha de generarse para, partiendo de esa imagen, minimizar las diferencias con la misma imagen a la que se le ha aplicado una de las emulaciones de fuji (provia, velvia...).


Si alguien no tiene el perfil de calibración de su cámara para la situación de luz y no tiene cartas IT8, pues puede tratar de usar un revelado neutro como el fiel de canon, para que el color no esté muy modificado.

SI sólo usas una imagen con un nivel de exposición, no podrás emular completamente la respuesta del negativo. En las luces altas por ejemplo la saturación del color de ese negativo y cómo reproduce el color cambia.

En los tonos medios sí tendrás un buen resultado, en la luces altas creo que es donde podría haber mayor diferencia.
 
La imagen de referencia entiendo que no ha de ser una imagen con una emulación (sea provia u otra) aplicada, si no una imagen con una reproducción de color lo más fiel posible al original (y a ser posible lineal, para evitar otros efectos). Así en cualquier cámara y con cualquier revelador podrías aplicar el perfil calibrado para generar esa imagen de color fiel a la que aplicar luego la lut3D.

SI sólo usas una imagen con un nivel de exposición, no podrás emular completamente la respuesta del negativo. En las luces altas por ejemplo la saturación del color de ese negativo y cómo reproduce el color cambia.
La imagen de referencia se debe escoger en función del propósito buscado, no hay una sola opción. En este ejercicio, aparte de que no dispongo de archivos RAW originales para hacer ninguna otra cosa, lo que buscaba es obtener LUTs que aplicadas a revelados estándar (JPEG de cámara típicos sin ajustes extremos) emulen las películas de Fuji. De ahí usar como referencia de partida el Provia.

Ninguna imagen tiene un solo nivel de exposición porque las escenas tienen siempre zonas claras y oscuras. Solo tienes que mirar la foto de las casetas de colores: tienen luces, sombras, tonos rojos, verdes, azules, amarillos, magenta,... y todos ellos con degradados. De ahí que pese a lo rudimentario que pueda parecer basarse en una sola imagen la realidad es que tiene mucha información. Interpolar de manera no lineal los huecos a cubrir es la especialidad de las redes neuronales. Insisto: para saber si la red funciona bien mira las últimas dos imágenes del burro: tienen tonos verdes y rojizos en distintos niveles de luminosidad, y la red los ha transformado muy bien.

Salu2!
 
Atrás
Arriba