Lo vimos con el sensor de 48 MP de Sony, presentado a mediados de 2018. Ni año y medio más tarde, ya hemos dado el salto a nuevos sensores de 64, e incluso de 108 MP, que ya vemos en algunos dispositivos de Xiaomi. Si
Y no parece que vaya a terminar ahí, ya que Samsung ya tiene a nivel interno referencias a dispositivos de hasta 144 MP. Por si esto fuera poco, el reciente Snapdragon 865 –el chipset para la gama alta de 2020– incluye soporte a sensores de hasta 200 megapíxels. Y muy probablemente sigamos acercándonos a ellos durante el próximo año, porque por qué no.
Pixel Binning: marketing y física
Desde que Sony presentara su IMX586, lo hemos visto aterrizar en multitud de dispositivos de todo rango de precio, colocando decenas de millones desde los más básicos y económicos a otros que no lo son tanto. Con la llegada de este sensor, de media pulgada de tamaño, aterrizaba también una nueva forma de combinar la luz captada.
Era el Pixel Binning, que combinaba la información de cuatro pixels en uno, para resultar en una imagen más nítida a resoluciones más que suficientes para uso cotidiano, de 12 megapixels. De hecho, los sensores de buena parte de los principales fabricantes, se mantienen en el entorno de estas resoluciones. No hace más falta que mirar al iPhone de Apple, a los Galaxy S de Samsung, los Pixel de Google e incluso los últimos Xperia de la propia Sony.
Realmente, lo que realizan con esta agrupación de pixels tiene tanto de ventaja para la captación de luz, como de trampa a la hora de recuperar el detalle original en la supuesta resolución nativa del sensor. Y es que para recuperar la imagen de 48 MP se procesa la señal para individualizar cada uno de los pixels, que originalmente no son tales.
Más bien, los subpixels de la matriz RGGB habitual –rojo, verde, verde y azul–, conocida como Bayer, se subdividen en cuatro partes, todas del mismo color. Para recuperar el detalle, la información ha de cruzarse, y eso resulta habitualmente en multitud de artefactos visuales, incluso a plena luz del día, que hacen más bien desaconsejable ampliar digitalmente la imagen demasiado.
Sensores ToF, qué son y para qué se pueden utilizar
La causa de que se mantengan los subpixels agrupados por color en el equivalente a un subpixel de mayor tamaño, en lugar de hacer cuatro pixels completos e independientes tiene que ver con la física. A nivel óptico y en la escala microscópica –en general del orden de un micrómetro, o 1µm– en la que se mueven los estos pequeños 'cajones' hay pequeñas fugas de luz entre unos y otros, que se van volviendo más y más dominantes a medida que aumentamos la resolución –y por tanto, mermamos su tamaño–.
En cuanto a estos efectos en sensores tradicionales, los ópticos distinguen entre dos regímenes bien diferenciados: el refractivo y el difractivo. Este último es el que predomina a muy pequeñas escalas, además de mucho más difícil de tratar. Bajo este efecto, la luz captada por un subpixel interfiere con los adyacentes, arrojando proporcionando también pérdidas de eficiencia y por tanto artefactos luminosos que dependen del color y del ángulo de incidencia.
Esto es algo que ha sido analizado en profundidad, como un estudio de la Universidad de Stanford a partir de simulaciones en el que sitúan el 'punto dulce' en la utilización de microlentes –que focalizan la luz en cada subpixel y son ampliamente utilizadas en los sensores móviles– en torno a los 1,4 nanómetros. O lo que es lo mismo: unas cincuenta veces el grosor del cabello humano. Este sería, por tanto, el punto donde resolución y definición son mejoradas de forma conjunta: pixels más pequeños van acompañados de una interferencia mayor, pixels más grandes reducen la resolución.
Por tanto, el Pixel Binning cobra sentido, manteniéndose cerca e incluso por encima de este límite, recuperando cierta fidelidad –que no toda– en la altísima resolución cuando esta es requerida. Afortunadamente, este tipo de sensores funcionan de forma predeterminada en su resolución más compacta, generando imágenes de salida de 12 MP, en el caso original del sensor de Sony.
Recientemente, la división de semiconductores del fabricante nipón presentaba algo que acercaba todavía más el concepto de estos nuevos sensores con resolución cuadruplicada. Se trataba de una lente única para los subpixels de cada color, que permitiría cubrir toda la escena con enfoque por detección de fase, en lugar de áreas concretas. Esto devolvería la calidad y velocidad de enfoque a este tipo de sensores, pero también les acercaría todavía más a efectos, a un único sensor con los subpixels y pixels más grandes.
Y es que la reconocida carrera de los fabricantes por lanzar terminales con un número de megapixels cada vez mayor que poder vender al consumidor, parece que tendrá un efecto real y patente sobre la fotografía, aunque sea por motivos distintos.
Efecto colateral: el tamaño del sensor aumenta y la captación de luz con él
Y es que es este tamaño precisamente lo que mejora la sensibilidad a la baja luz, por lo que puede proporcionar una información más robusta y con menor ruido final, incluso en la era donde la fotografía computacional y los algoritmos toman los mandos de la cámara de nuestro móvil. Se trata de una herramienta más De hecho, el efecto más directo de buscar estas enormes resoluciones es que el área de los sensores está creciendo.
Un vistazo a los principales sensores de Sony nos permite ver que, efectivamente, hemos pasado de sensores en el rango de 1/3" –o un tercio de pulgada, como se suele leer– a 1/2,5" –que todavía usan los Galaxy Note 10 o el iPhone 11 Pro– a otros sensiblemente más grandes. El IMX586 de Sony abarca 1/2"; el Isocell Bright GW1 de Samsung en 64 MP, 1/1,7", y el Isocell Bright GMX de 108 MP, 1/1,33".
Pueden parecer mejoras relativamente no tan destacables. Todo lo contrario, pues realmente, el área crece con el cuadrado de la distancia. O dicho de otra forma: un sensor que es el doble de ancho y largo capta hasta cuatro veces más de luz. Y eso es precisamente lo que estamos viendo desde con las nuevas propuestas.
Sí habría, no obstante, un inconveniente extra a la hora de incorporar este tipo de sensores. Y es que el área cubierta ha de venir acompañada también de un mayor tamaño de las ópticas para evitar distorsiones, por lo que el grosor del terminal o bien del módulo de cámara podría verse también incrementado.
Como ejemplo tenemos al Huawei Mate 30 Pro, que llega con dos enormes sensores que recogen también sus generosas resoluciones de 40 MP en el angular principal y en el ultra gran angular. El módulo de cámara es por tanto algo amplio y protuberante, aunque eso no evita que siga siendo para muchos una apuesta sólida.
Huawei Mate 30 Pro, análisis: puede y quiere, pero no le dejan
Los 108 MP del Galaxy S11+, ¿nueve pixels en uno?
Todavía faltan un par de meses para que se presente la próxima generación de móviles de alta gama. Un plazo más que suficiente para que tengamos una buena cantidad de detalles acerca de alguno de ellos. Es el caso de los Galaxy S11, que llegará de nuevo en múltiples versiones y que, además, exhibiría los sensores de altísima resolución de los que hemos venido hablando hasta aquí.
Al menos en el caso del Galaxy S11+, que vería, de acuerdo a fuentes habituales y reconocidas del sector, con una cámara de 108 MP. No sería, eso sí, el mismo sensor que hemos visto en los dos smartphones de Xiaomi que la incorporan, el Mi MIX Alpha o el Mi Note 10. En su lugar, se trataría de un sensor mejorado y exclusivo para el fabricante coreano.
Ahora, según afirma el conocido Universe Ice, conocemos algunas características extra acerca de este sensor. La más relevantes es que haría uso del Pixel Binning, pero esta vez utilizando 9 pixels para dar lugar a uno. De esta forma, produciría imágenes de 12 MP, aunque con una sensibilidad a baja luz mayor.
De hecho, tal y como afirma este leaker, el equivalente final sería el de tener pixels de 2,4 micras, bastante por encima de lo que suele ser habitual, especialmente en la gama alta. Si hacemos los números, cuadra con el tamaño habitual del sensor Isocell GMX, quedando en 1/1,33", aunque con este combinado de puntos que permitiría tener una resolución decente de 12 MP, que sea también competente y conserve la definición también en situaciones de baja luz.
¿Adiós al Exynos? El Galaxy S11 podría llegar en una única versión Snapdragon
Todavía está por ver si finalmente llegará en esta definición y con este sensor con matriz "Nona Bayer", o como finalmente se termine llamando. A la hora de reescalar, podrían utilizar algún truco extra que desconocemos todavía, pero parece improbable que sea capaz de recuperar la totalidad de la resolución original del sensor. Y es que, como hemos visto, los megapixels están ahí, pero no son lo más importante.
De la misma forma, tampoco lo es el tamaño del sensor de forma aislada. Las grandes áreas sensibles sirven como una herramienta más en fotografía. Como lo son las lentes, los buenos algoritmos de procesado, las clasificaciones por machine learning o la potencia computacional disponible.