No se polemiza; se intercambian pareceres.No me gusta polemizar, y menos en cuestiones de este tipo, que como es lógico tienden mucho, como por otra parte es lógico, a una gran subjetividad. A lo que me refiero es que en gran parte, el hecho de que una fotografía represente bien los colores reales, que resuelva bien los contrastes y el rango dinámico, etc. es más obra de la cámara que del objetivo. Pero no he dicho que todo sea eso, porque desde luego que la óptica cumple su función; hay objetivos que parece (hablo de lo que he leído y escuchado y no por experiencia propia porque no los he probado) que tiene mayor contraste (por ejemplo el de 32mm de Zeiss), que afrontan de forma diferente los colores, etc. Pero en mi opinión, y cada día más, el sensor y los procesadores son más importantes, y mucho más si trabajamos en RAW. Los componentes informáticos tienen y tendrán cada vez más peso. Esto pienso yo y en cierto modo lo podemos comprobar con el procesamiento que hacen los móviles. Es decir, que cada día tiene más importancia la fotografía computacional y la Inteligencia Artificial. Por supuesto que eso no hará que una foto sea buena, pero desde luego ayuda. Y a eso vamos encaminados. Por supuesto, que no todo será computacional. Por ejemplo, una foto desenfocada nunca se podrá arreglar con software. Pero creo que esto es importante.
Como bien dice el compañero @vichenso los sensores los fabrican 2 tirando a 3 y uno de ellos SONY la mayoría de ellos.
Me estás diciendo que en una cámara de película (carrete) ¿la calidad está en la película? -> este podría ser el ejemplo más claro.