Sony atraviesa su momento más difícil como fabricante de smartphones. Con tan solo 400.000 unidades vendidas durante el primer trimestre de 2020, una tercera parte frente a 2019, se centran en detener las pérdidas. Sin embargo, hay dos segmentos que todavía le funcionan muy bien: uno es por supuesto PlayStation –acaban de anunciar 110 millones de PS4 vendidas–, y el otro, el de los sensores fotográficos. Estos últimos reciben ahora su dosis de innovación, al anunciar desde Japón los sensores con IA a bordo.

Y es que Sony fabrica buena parte de los sensores fotográficos para dispositivos móviles de todo tipo. Desde los smartphones de su competencia hasta drones como el nuevo Mavic Air 2 o productos de toda índole. Pero ya no basta con sensores cada vez más sensibles y más grandes. En un una era marcada por la fotografía computacional y las posibilidades que se despliegan, el icónico fabricante nipón entra de lleno con dos sensores con inteligencia artificial directamente en ellos. Se trata del IMX 500, y su versión encapsulada el IMX 501.

Sensores con inteligencia artificial

El IMX 500 o IMX 501 es un sensor de "nada más" que 12,3 megapixels. Una resolución que evita las carreras de números y las tecnologías más recientes que le dan cuerda, como el pixel binning. También se trata de un sensor más bien compacto, con un tamaño de 1/2,3 pulgadas, muy alejado del IMX 689 que vemos en los OnePlus 8 Pro u Oppo Find X2 Pro y sus 1/1,4".

Sony IMX 500 e IMX 501
Sony

A cambio, en la parte trasera de estos sensores con IA o de de visión inteligente, como lo llama Sony, encontramos un diminuto chipset capaz de realizar las tareas que de otra forma se realizarían en el SoC principal del dispositivo en cuestión. Este sensor está pensado más bien para tareas ligeras, más bien para dispositivos IoT que para la mejor calidad de imagen en una cámara.

Las ventajas del 'edge computing', directamente en el sensor

Sony IMX 500 e IMX 501, sensor con IA
Sony

Sony enumera las ventajas que aporta un sensor de estas características, frente a los sistemas actuales:

  1. Latencia: si el procesado se hace en el propio sensor, en lugar de en un procesador dedicado o en un servidor en 'la nube', el tiempo de respuesta del sistema será menor. A cambio, será más robusto frente a cortes en la transmisión de datos.
  2. Seguridad y privacidad: con un tratamiento de imagen embebido, únicamente escapa del sensor la información más fundamental, una vez ya ha sido por los algoritmos.
  3. Eficiencia y coste: si hablamos de reconocimiento de texto, en lugar de transmitir una imagen con miles o millones de pixels de resolución, podemos enviar esta misma información en unos pocos bits. Esto evita también costes añadidos en sistemas dedicados y externos que disparan el precio de los equipos de reconocimiento facial, por ejemplo.

Sony afirma que los modelos de machine learning a bordo pueden ser seleccionados de una lista ya precargada para conteo, predicción, medidas, mapas de calor o de análisis de congestión, entre otros. Asimismo, estos sensores con IA pueden actualizarse con modelos dedicados desarrollados por los propios desarrolladores que lo implementen. La casa apunta por ejemplo a los sistemas de reconocimiento de producto y clientes en los supermercados sin personal, al estilo de los de Amazon.