Las cámaras de los iPhone 14, Plus, Pro y Pro Max, explicadas: el sensor Quad Pixel y el motor Photonic Engine Tremendo lo que tienen

 


las prestaciones fotográficas de los nuevos iPhone 14, y, como esperábamos, en este ámbito tenemos varias novedades muy interesantes en las que merece la pena que indaguemos más allá de su carácter razonablemente continuista si tomamos como referencia lo que nos propusieron los iPhone 13 el año pasado. Esta es la apuesta de los terminales con los que Apple va a lidiar en un mercado con más móviles fotográficos de calidad que nunca.

El hardware fotográfico de los iPhone 14, bajo nuestra lupa

Para identificar con precisión qué nos proponen estos smartphones recién aterrizados nos viene bien echar por un momento la vista atrás para tener contexto repasando las características más relevantes del hardware fotográfico de los iPhone 13. Os propongo que empecemos echando un vistazo a la cámara delantera. En los modelos del año pasado incorpora un sensor de 12 megapíxeles que trabaja en tándem con una óptica con valor de apertura f/2.2.

El captador de la cámara frontal de los iPhone 14 también tiene una resolución de 12 megapíxeles, pero en estos teléfonos móviles Apple ha optado por introducir una modificación importante en la arquitectura de la óptica con la que convive. Y es que incorpora seis elementos y tiene un valor de apertura de f/1.9, por lo que en la práctica esta cámara debería ser más luminosa en los iPhone 14 que en sus predecesores. Además, en teoría también debería entregarnos un desenfoque del fondo (bokeh) más uniforme, aunque es algo que no sabremos con seguridad hasta que probemos a fondo la cámara TrueDepth de alguno de los nuevos iPhone 14.

Vamos ahora con las cámaras traseras. Los iPhone 14 y 14 Plus tienen exactamente la misma dotación: una unidad principal y otra de tipo ultra gran angular. Con los iPhone 14 Pro y Pro Max sucede exactamente lo mismo: comparten su cámara principal, la unidad ultra gran angular, y también los dos teleobjetivos con distinta distancia focal equivalente. Eso sí, uno de ellos, el que nos propone los dos aumentos, en realidad utiliza la óptica de la cámara principal y recurre solo a los fotodiodos centrales del sensor. Indagaremos en él más adelante.

La cámara principal de los iPhone 14 y 14 Plus incorpora un sensor de 12 megapíxeles que trabaja codo con codo con una óptica de siete elementos con valor de apertura f/1.5. La del iPhone 13 también se apoya en un captador de 12 megapíxeles, pero su óptica es ligeramente menos luminosa que la de los nuevos iPhone 14 y 14 Plus (tiene un valor de apertura de f/1.6). Eso sí, como cabe esperar, esta cámara incorpora estabilización óptica por desplazamiento del sensor tanto en los iPhone 14 como en el 13.

Por otro lado, la cámara ultra gran angular de los iPhone 14 y 14 Plus se apoya en un sensor de 12 megapíxeles que trabaja en tándem con una óptica de cinco elementos con valor de apertura f/2.4 que es capaz de entregarnos un campo de visión de 120 grados. Curiosamente, las características de la unidad ultra gran angular del iPhone 13 son esencialmente las mismas, por lo que a priori esta cámara parece no haber introducido en los nuevos iPhone ninguna innovación relevante.

El sensor Quad Pixel de los iPhone 14 Pro y Pro Max es, según Apple, un 65% más grande que el de los iPhone 13 equiparables y un 49% más luminoso

Vamos ahora con las cámaras alojadas en el módulo trasero de los iPhone 14 Pro y Pro Max. La unidad principal apuesta por un nuevo sensor Quad Pixel de 48 megapíxeles y fotorreceptores de 1,22 µm que es posible agrupar en conjuntos de cuatro fotodiodos con el propósito de que se comporten como un único fotorreceptor de 2,44 µm. La cámara principal de los iPhone 13 Pro y Pro Max incorpora un sensor de 12 megapíxeles con una arquitectura convencional, por lo que, sobre el papel, en este terreno los nuevos iPhone 14 deberían proponernos una mayor flexibilidad, y también una calidad de imagen más alta, aunque es algo que tendremos que comprobar cuando los analicemos a fondo.

También merece la pena que no pasemos por alto que la óptica de la cámara principal de los iPhone 14 más ambiciosos tiene una arquitectura de siete elementos (es la más compleja de todas) y un valor de apertura de f/1.78. Curiosamente, la óptica de esta cámara en los iPhone 13 Pro y Pro Max es más luminosa (f/1.5), pero esta diferencia debería quedar compensada con holgura por las características físicas del sensor Quad Pixel de los iPhone 14 Pro y Pro Max, que, según Apple, es un 65% más grande que el de los iPhone 13 equiparables y un 49% más luminoso. De nuevo, es algo que pondremos a prueba tan pronto como tengamos la oportunidad de analizar a fondo estos teléfonos móviles.

Apple asegura que todas las cámaras alojadas en el módulo trasero de los iPhone 14 Pro y Pro Max son más luminosas que las unidades equiparables de los iPhone 13 Pro y Pro Max. Y, de ser así, esta mejora es ante todo la consecuencia del incremento del tamaño de los sensores debido a que, como hemos visto, la óptica vinculada a la cámara principal y el teleobjetivo es menos luminosa en los nuevos iPhone.

Photonic Engine y Deep Fusion: el corazón del software fotográfico de los iPhone 14

Hasta este momento hemos indagado en el hardware de las cámaras integradas en los iPhone 14, pero todavía no hemos profundizado en el otro ingrediente fundamental de la receta que, sin excepción, nos proponen todos los fabricantes de smartphones con vocación fotográfica: la fotografía computacional. Y, de nuevo, lo que nos promete Apple en este terreno suena bien. Y lo hace debido a que en sus últimos móviles ha introducido una innovación llamada Photonic Engine, que no es otra cosa que un componente de software que trabaja codo con codo con el motor de procesado Deep Fusion.

El motor Photonic Engine recibe la información que ha sido recogida por el sensor de la cámara que estamos utilizando antes de que intervenga el algoritmo de compresión

A grandes rasgos el motor Photonic Engine recibe la información que ha sido recogida por el sensor de la cámara que estamos utilizando antes de que intervenga el algoritmo de compresión. De esta forma es posible incrementar el rendimiento en condiciones de baja luminosidad de todas las cámaras, recuperando así más detalle y arrojando un nivel de ruido más bajo. En teoría incluso la restitución del color debería verse favorecida, aunque, de nuevo, es algo que tendremos que probar con calma para identificar si realmente es así, como nos dice Apple, o no lo es.

Una vez que el motor Photonic Engine ha cumplido su cometido entrega la información que ha recabado al algoritmo Deep Fusion. Este es el componente de software que se encarga de identificar los píxeles óptimos de varias imágenes tomadas con diferente tiempo de exposición para reunirlos en una única fotografía final que, en teoría, nos entrega la mejor calidad de imagen global posible. La estrategia utilizada por Apple no es muy diferente a la que han implementado otros fabricantes en sus smartphones más sofisticados, como Google, Huawei o Samsung, por lo que será interesante comprobar cuál es el mejor móvil con vocación fotográfica de 2023.