Me encantaría que me informaras bien de lo que hace la IA en una foto, para que nos enteremos todos.
Por ejemplo, sin ir más lejos el modo noche combina un HDR más el apilados de fotos para reducir el ruido y aumentar el rango dinámico en escenas nocturnas.
Hace un par de años Google presentó una tecnología para el zoom digital que aprovechaba la trepidación natural para ir sacando fotos e ir reconstruyendo la imagen, además de usar varios sensores a la vez y superponer las imágenes.
Hay otras cosas como el HDR automático unido al reconocimiento de escenas (algo en lo que se está avanzando bastante para aumentar el rango dinámico sin descompensar la foto).
Hasta el enfoque de los móviles al igual que en algunas cámaras usa la IA para detectar sujetos y seguirlos.
Ya hay tecnologías presentadas que a partir de los sensores LiDAR obtener información en 3D de las escenas y poder eliminar de forma más eficiente el ruido.
Recientemente en la galería de los Google pixel se ha añadido una función para recuperar fotos movidas o desenfocadas que funciona muy muy bien.
Y todo eso hay que sumarle el aumento de tamaño de los sensores, hasta ahora de 1" y a la mayor cantidad de los mismos.
No se inventan la información si no que buscan la forma de obtener más y creo que eso es en algo en lo que tienen muchísima ventaja con respecto a las cámaras, el poder de cálculo está mejorando cada día más y las ISP mejorando en consecuencia.
Un saludo
Enviado desde mi LE2115 mediante Tapatalk