Ayer Google presentó finalmente los nuevos Pixel 4 y Pixel 4 XL, tras meses de espera. Bajo ellos llegaba no solo un hardware renovado, sino algunos trucos de software más que interesantes. Aunque ya vimos que la nueva grabadora con transcripción en tiempo real sería exclusiva para los nuevos modelos, hay algunas novedades que sí aterrizarán en dispositivos ya disponibles.

Se trata de el modo dedicado a la astrofotografía, que ha llamado Astrografía, así como Live Caption, que genera subtítulos de todo los vídeos que reproduzcamos en el dispositivo. Estos llegarán tanto al Pixel 3 y Pixel 3 XL, como a los más económicos y recientes Pixel 3a y Pixel 3a XL.

Google renueva la cámara del Pixel 4: ¿qué aporta para competir con el iPhone 11 Pro?

No lo harán, no obstante, a dispositivos anteriores como el Pixel 2 y el Pixel original. Esto puede deberse bien a que estas características se ejecutan de forma local en el dispositivo y hacen uso de los chips integrados dedicados al machine learning, quedando restringidos a los más recientes.

De hecho, Google incluye en los nuevos Pixel 4 un chip dedicado a las tareas de inteligencia artificial que denominan Pixel Neural Core, que sustituye al Pixel Visual Core que veíamos en la pasada generación. No hay muchos detalles acerca de las capacidades mejoradas de este procesador, pero este cambio de denominación es revelador de que están moviéndose a tareas más intensivas más allá del procesado de imagen.

Recordemos que Live Caption es una herramienta que es capaz de transcribir el audio de los vídeos reproducidos en el terminal en tiempo real y en el propio dispositivo –sin necesidad de que la información sea enviada a los servidores de Google–, siendo una de las mayores implementaciones en materia de accesibilidad en años. Además, permitirá al grueso de usuarios reproducir vídeos no subtitulados en situaciones donde no sea apropiado el uso de auriculares o el propio altavoz.

Así se compara el Google Pixel 4 XL frente a las alternativas móviles más potentes