Qué bien que funciona la máquina de marketing de Apple, ¿verdad? Medida al milímetro, diseñada para resaltar al máximo las mejoras de sus dispositivos —en relación con el pasado y a la competencia—, minimizando los puntos flacos. Espero que no se me malinterprete, porque no me parece mal. De hecho, es de las cosas que más admiro de Apple: saber concebir productos de tal forma que, la suma da un resultado mayor a sus componentes individuales. Es aquí donde suelo pensar diferente a la mayoría de los críticos de Apple, que seleccionan por conveniencia cosas que consideran deficientes, pasando por alto el gran esquema de las cosas. Con el iPhone 14 Pro está sucediendo nuevamente —incluso más que años pasados— al mencionar las particularidades que la competencia ya tenía —pantalla always on, con perforaciones para eliminar el notch, sensores grandes para hacer fotos más pequeñas—, ignorando lo que hace tan especial a este dispositivo: la integración profunda de hardware y software que ningún otro fabricante es capaz de ofrecer.
Pero aun así, hay una realidad innegable: Apple ha tenido que ceder y transigir en cada una de las novedades que diferencian al iPhone 13 Pro del iPhone 14 Pro. Pero a nadie debería sorprenderle. Las innovaciones que dan saltos exponenciales entre una generación a otra —en el mundo de los smartphones— han quedado atrás. Estamos entrando a esa zona en que la curva se vuelve más horizontal. Es absolutamente inevitable. La tercera década del siglo XXI será recordada como la entrada a la madurez de los dispositivos que cambiaron el mundo para siempre.
Cabe la posibilidad que los movimientos radicales que todo el mundo ha experimentado durante y tras la pandemia, incluyendo las multinacionales tecnológicas, hayan acelerado esa madurez del smartphone. Pero ya estamos ahí. Pasó hace un poco más de diez años con los ordenadores y los portátiles. De aquella desesperación irracional ante la salida de un nuevo procesador o un nuevo modelo de MacBook Pro cada año, ahora es absolutamente normal que nos dure cinco o seis años antes de pensar en comprar uno nuevo.
Estamos pasando del cambio anual de iPhone, a hacerlo cada dos, cada tres y me temo que empezaremos a normalizar el switch cada cuatro años. Sigo viendo el iPhone XR —puesto a la venta en octubre de 2018— funcionando perfectamente en 2022 con iOS 16.
Por supuesto, si eres un entusiasta tecnológico como yo, nada de lo que digo aplica. Nos apasionan estos dispositivos y queremos el último siempre. Early adopter hasta morir. Pero hay un mundo ahí afuera que no piensa igual que nosotros, y que de hecho, es la mayoría de la base de clientes de empresas como Apple.
Definitivamente, hay decenas de cosas que no cambian entre el iPhone 13 Pro y el iPhone 14 Pro. Y, sin duda alguna, hay mejoras que tan solo son progresivas. Incluso hay una que otra gran innovación que tampoco merece más que una breve mención.
Sí, el A16 Bionic es súper rápido, con proceso de construcción de cuatro nanómetros y 20% más eficiente a la hora de funcionar. Sí, Apple no tiene rival a la hora de construir el dispositivo. El material, colores, uso de acero y la forma en que se aplica el color al smartphone es tremendo.
Pero hoy nos vamos a centrar en aquello que hace único al iPhone 14 Pro y determinar si realmente vale la pena actualizar al nuevo smartphone de la compañía.
Apple iPhone 14 Pro
Gran pantalla que siempre está encendida, con más brillo y un procesador aún más rápido. El iPhone 14 Pro tiene la mejor cámara de fotos y vídeo que puedes comprar en un smartphone, con novedades como la isla dinámica. A primera vista puede que no se trate de una actualización significativa, pero como suele ocurrir con los productos de Apple, el resultado es mayor a la suma de sus elementos. Aún así, por momentos parece haber más concesiones de las que nos gustaría con este dispositivo.
Pásate al reacondicionado: ahorra hasta un 70%, con 2 años de garantía.
La isla dinámica
Empecemos con lo que todo el mundo está hablando. Adiós notch, hola isla dinámica. Apple es experto en conseguir que uno de los elementos más aburridos e irrelevantes de un dispositivo se conviertan en el tema de conversación tecnológicos del año.
La isla dinámica en el iPhone 14 Pro es el equivalente de Apple al volante yoke de Tesla. De lejos no es lo más relevante, ni importante, de verdad, no es para tanto. Pero estamos aquí todos hablando del tema. Se vienen las turras eternas y será uno de los motivos más habituales para mencionar al dispositivo.
Dejando a un lado lo cursi que es el nombre, es un gran ejemplo de los valores de diseño y funcionalidad de Apple. Es una culminación de la intersección entre el diseño invisible y tener el control absoluto del hardware y el software. La isla dinámica en realidad es la perforación circular de la cámara frontal y la perforación —en forma de píldora— de los sensores y el Face ID, unidos por un sistema de software que funciona casi como una segunda pantalla.
Apple quiere que, aunque lo que une ambas perforaciones es la pantalla, se sienta como una sola pieza de hardware capaz de aumentar, reducir en tamaño en incluso cambiar de forma. Para conseguirlo, han suavizado los bordes hasta los subpíxeles, con animaciones hasta tres veces más fluidas. Todo controlado a nivel hardware desde el A16 Bionic.
Es fácil descartar la isla dinámica como "el nuevo truco de Apple". Pero detrás de todo esto hay mucha ingeniería y muchísima integración entre el hardware y software, que da un resultado francamente sorprendente.
Sobre la isla dinámica se concentra todo el sistema de notificaciones de iOS que antes eran popups emergentes que aparecían y desaparecían dependiendo del contexto. O que se relegaban al centro de control. Ahora todo está en un mismo lugar. Si subes o bajas el volumen, lo puedes ver ahí. Pero también puedes mirar el tema que estás escuchando y en qué dispositivo está sonando (en los AirPods o los HomePods). Si estás en una llamada telefónica, puedes ver el tiempo que está durando y una animación refleja el sonido que se escucha en el momento. Esto último me resultó más útil de lo que imaginaba. Por ejemplo: si la persona al otro lado del teléfono está hablado, pero no la escuchas porque el sonido de altavoz está muy bajo, sabes que el problema eres tú.
La unificación es un total acierto. Apple tenía tres o cuatro formas de mostrar este tipo de indicaciones, algunas veces un tanto dispares y desordenadas. La animación de Face ID salía en un lugar distinto a la animación de subir o bajar volumen, por decir algo. Si el micrófono esta activo, se mostraba en la zona superior derecha. Pero ahora, todo está en un mismo lugar. ¿Recibes un archivo por AirDrop? Lo verás ahí también.
La isla dinámica también es interactiva. Si escuchas música, puedes presionarla y te muestra los controles para subir/bajar volumen, adelantar o pausar.
También está muy bien integrada con el ecosistema de Apple. Si estás mirando una serie o película en un Apple TV, la isla dinámica lo muestra, y desde ahí, presionándola, accedes rápido a una versión reducida de un mando a distancia.
Eso sí, queda camino por recorrer para que sea mucho más útil. La idea de Apple es que la isla dinámica pueda ser aprovechada por desarrolladores de apps. Con la salida del iPhone 14 Pro, por obvios motivos, pocas apps lo tienen integrado.
Con los días y semanas seguramente veremos más y más apps aprovechándola. La API se abre con iOS 16.1. Pero sospecho que tardaremos una buena cantidad de meses antes de que dejemos de ver elementos de la interfaz gráfica de algunas apps escondidas detrás de la isla dinámica.
Entiendo que Apple, aquí, no tiene opción. O le notificaba a todos los desarrolladores —desde la beta de iOS 16— que este nuevo elemento aparecería más adelante y haría spoiler del iPhone 14 Pro, o se lo queda callado hasta la presentación y esperan a que todos la adopten cuanto antes.
Obviamente, eligieron la segunda opción de la misma forma en que ha sucedido en cualquier presentación de cualquier dispositivo de Apple. Absolutamente entendible. Pero no puedo dejar de mencionar que una app no adaptada a la isla dinámica genera una mala experiencia al usuario.
Una pantalla que nunca se apaga y que brilla más
La segunda novedad en relación al frontal del iPhone 14 Pro es la pantalla que nunca se apaga. Aquí Apple llegó (muy) tarde a la fiesta. Esta función ya la hemos visto en decenas de dispositivos Android. Pero, como comentaba al inicio de este análisis, hay mucho más detrás de esta nueva función, aunque no necesariamente sea lo más útil del mundo.
Las pantallas always on aprovechan una de las mayores ventajas del OLED: cuando se muestra algo en color negro, en realidad esos pixeles están apagados, no utilizan energía.
El truco de este tipo de función siempre ha sido mantener la inmensa mayoría de color negro —es decir, con los pixeles apagados— y solo mostrar un pequeño reloj y fecha. Es inteligente y útil. Apple lo ha hecho de otra forma.
La pantalla lo muestra todo: fecha, hora, el fondo de pantalla y los widgets que hayas configurado. El brillo es mínimo, pero algunos elementos resaltan. La tasa de refresco baja a 1 Hz —es decir, se actualiza tan solo una vez por segundo—. Cuando el iPhone 14 Pro no se mueve durante un periodo de tiempo, se apaga por completo.
Si pones el smartphone boca abajo, la pantalla se apaga. Si te lo metes al bolsillo, la pantalla se apaga. También, si tienes un Apple Watch y te alejas del iPhone 14 Pro, la pantalla se apaga. Y cuando estás durmiendo, iOS 16 es suficientemente inteligente para apagar la pantalla aunque no hayas activado el modo de dormir.
La compañía asegura que el impacto en la autonomía del dispositivo es prácticamente imperceptible, pero no estoy del todo de acuerdo. Lo que no tengo claro es: ¿la batería me dura menos porque la pantalla está siempre encendida o porque los widgets que tengo configurados están actualizándose para mantener la información actual? Me hubiese gustado tener un poco más de tiempo para determinarlo más allá de cualquier duda.
La pantalla siempre encendida se puede desactivar desde la configuración el iPhone 14 Pro y puedo entender que mucha gente termine haciéndolo. Hay momentos en que es un poco raro —diría que incluso molesto— ver esa pantalla encendida. No me molestaría tener una opción en el futuro que me permita apagarlo todo menos el reloj.
Y la tercera gran novedad de la pantalla del nuevo iPhone 14 Pro es que es mucho más brillante en ciertas situaciones. Si hay mucho sol, el dispositivo lo compensa hasta los 2.000 nits. Me fui a la sierra madrileña a mitad de la tarde con el sol pegando directo si una sola nube, ni una sola sombra, en medio de un campo totalmente abierto, para tomar fotos y probar esta función, ¡y vaya que se nota!
También, cuando miras contenido HDR, el brillo aumenta hasta los 1.600 nits. Un aumento considerable, sobre todo si lo comparas con los 1.200 nits del iPhone 13.
La nueva cámara
La estrella del iPhone 14 Pro es su sistema de cámaras. Es aquí donde realmente hace honor a su apellido. Pero, una vez que empiezas a profundizar —sobre todo a nivel técnico—, empiezan a aparecer algunas de las concesiones que Apple ha tenido que hacer.
Apple ha incorporado un nuevo sensor de 48 megapixeles, mejorándo respecto al de 12 megapixeles que utilizaba hasta la generación anterior de smartphones. Y sí, aquí han llegado tarde: Samsung tiene un sensor de 108 megapixeles y los Pixel de Google de 50 megapixeles. No obstante, es importante recordar que más megapixeles no equivalen a más calidad necesariamente. Un dispositivo puede incorporar un sensor de mierda que saca fotos de 200 megapixeles. El resultado es una imagen inmensa, pero con una calidad mala.
Apple, no obstante, no crea imágenes de 48 megapixeles –aunque da opción para ello–. Lo que está haciendo, como otros fabricantes, es agrupar píxeles. Combinan la información de cuatro píxeles en uno. El resultado es una fotografía de 12 megapixeles pero, al fusionar la información de varios píxeles adyacentes en uno mismo, se extrae más información de la escena y se mejora el resultado final.
Esto se hace porque los sensores para smartphones se topan con límites físicos que no se pueden evitar. Cuando el sensor es más grande, la foto es mejor. Pero estos smartphones tienen que mantenerse pequeños, y esta es una buena forma de compensar. En esta labor de fusión de píxeles también entran en juego algoritmos e inteligencia artificial para procesar la foto y dar como resultado una que —en general— debería gustar al usuario promedio.
Pero en mi opinión no siempre funciona bien. Las fotos procesadas llegan a tener un nivel de reducción de ruido y enfoque (sharpening) que a menudo es agresivo. Más que nunca. Hay imágenes que —dependiendo del contexto— parecen ser resultado de un motor de inteligencia artificial, por la cantidad de posprocesamiento.
La buena noticia es que esto último se puede corregir por medio de actualizaciones de software. En el pasado ya lo han hecho, no sería una sorpresa que veamos más moderación en el procesado en futuras versiones de iOS 16.
El sistema de cámaras también ha mejorado en condiciones de baja luz. ¿Qué tanto? Apple usa nombres novedosos para describir todo el sistema algorítmico de mejora de imágenes que combina algunas tecnologías previas y otras nuevas. Lo llama Photonic Engine. El procesado de Deep Fusion ahora ocurre antes y lo aplica a las versiones sin comprimir de las fotos. Todo muy sorprendente, sí, pero la mejora comparada con el iPhone 13 Pro es —en general— residual en la mayoría de casos.
Tema aparte: el modo macro. Antes era bueno, ahora es brutal. Pero para sacarle todo el provecho, lo mejor es tomar la foto en RAW y exportarla a una app de posprocesado como Lightroom.
Hablando de RAW, aquí hay otro apartado donde Apple ha tenido que hacer concesiones en relación con las cámaras. La posibilidad de tener acceso a las imágenes en crudo y con esos 48 megapixeles es impresionante. Eso sí: si usas la cámara telefoto o el gran angular, el resultado sigue siendo una imagen de 12 megapixeles aunque esté en formato Apple RAW.
Si activas el modo retrato, independientemente de cuál cámara uses, el RAW se desactiva y la foto siempre será de 12 megapixeles. Si activas el modo noche, la foto también será de 12 megapixeles, pero sí puedes disparar en RAW.
Dicho eso, el sensor de 48 megapixeles del iPhone 14 Pro mejora la profundidad y rango dinámico de generaciones anteriores. Tras editar las fotos en Lightroom, los resultados son absolutamente sorprendentes. De verdad, es increíble lo que un componente tan pequeño es capaz de conseguir.
Modo retrato y modo noche
En cuanto a otros modos de fotografía como el retrato, Apple asegura que hay mejoras progresivas, pero cuesta mucho verlas, sobre todo cuando se compara con el iPhone 13 Pro. Diría que donde más se nota es cuando se usa en combinación con el 1x, que es más el más luminoso de los tres y es el caso de las tres fotos de ejemplo a continuación. Pero no olvidemos: las imágenes no son RAW, por lo que hay menos espacio para la edición y hacemos cambios sobre algo previamente procesado por el iPhone.
Estos son tres ejemplos del modo retrato hechos con un iPhone 14 Pro a Nico Rivera, Ara Rodriguez y Pixie. En los dos primeros casos hice las fotos a las 17 horas intentando que la luz directa solo pegue en la mitad de la cara, para crear algo más de sensación de profundidad. En el caso de mi perrita, fue por la mañana, en interiores. En los tres ejemplos no hay edición alguna más que nivelar colores ligeramente.
En el caso de Nico, la separación de sujeto y fondo, en general funcionó bien, pero con Ara se puede ver como el procesado hace que algunas zonas en el borde del cabello se vean directamente artificiales. El algoritmo aún le cuesta cuando se trata de pelos. La comparación a continuación entre una foto con y modo retrato y una sin modo retrato activo tomada una tras de la otra.
Luego está el modo noche que, como mencionaba antes, tiene un nuevo procesamiento en el dispositivo para sacar mejores imágenes. En mi experiencia diría que por momentos las fotos son peores que el iPhone 13 Pro. Algunas quedan bien, otras no tanto. Es verdad que el nuevo sensor principal es tan luminoso que el modo noche se activa menos que antes. Pero, cuando se activa, bueno... El resultado es muy inconsistente y realmente espero que Apple buque mejorarlo por medio de actualizaciones de software.
Las fotos de ejemplo fueron tomadas a las 20:45, cuando ya se había puesto el sol, en un lugar relativamente poco iluminado, en un pantano al norte de Madrid. Como puede evidenciarse, a veces bien, pero a veces no tanto. Y la dosis de reducción de ruido es un tanto exagerada. Creo que la mejor es la primera.
Estas fotos, en cambio, fueron tomadas en casa a Pixie, con modo oscuro. Algunas con el modo retrato activo, otras no. La mayoría utilizando el sensor principal. Los resultados son muy variables. Algunas quedaron perfectas, otras tienen el ajuste de nitidez (sharpening) demasiado alto y, en otras, el intento de reducción de ruido elimina parte del detalle fino del sofá o el pelo. En todos los casos, el tiempo de exposición está en automático.
En líneas generales, la cámara del iPhone 14 Pro es un paso hacia delante, sobre todo en la cámara principal, cuyo sensor de 48 megapixeles abre un mundo de posibilidades. También es probable que esta sea, una vez más, la mejor cámara del sector. Eso sí: que sea la mejor no significa que sea perfecta. Como he ido describiendo, algunos algoritmos de Apple son más agresivos que antes o, simplemente, necesitan algo de refinamiento. Por suerte, es algo que se puede hacer mediante actualizaciones de software.
Modo acción y modo cinematográfico en el iPhone 14 Pro
El vídeo también viene con algunas mejoras, aunque son, en su mayoría, graduales. Muchos se han visto sorprendidos por el nuevo modo acción, que sin duda es útil, con posibilidad de hacer algunas cosas creativas en situaciones que parecían reservadas a una GoPro. Pero al igual que estas cámaras, hay límites físicos, y la única forma de estabilizar la imagen, cuando el dispositivo se mueve mucho, es recortando el vídeo y equilibrando lo que ocurre en el centro.
Es por eso que el vídeo resultante es de 2,8K y no 4K. Pero lo mismo sucede con cualquier GoPro o DJI Action Cam y similares. Hay dos caminos futuros en este tipo de modos: un sistema basado en inteligencia artificial que sea capaz de estabilizar de forma mucho más activa un vídeo sin perder resolución o sensores 6K u 8K que den como resultado una imagen 4K tras procesarla.
Independientemente de lo divertido que es probar el modo acción, y de lo útil que puede ser en ciertas situaciones, me decepciona que el vídeo resultante sea 2,8K. Además, para que funcione bien hay que estar en exteriores. Cualquier prueba en interiores, por mucha luz que hubiese, el iPhone 14 Pro mostraba un aviso de que le hacía falta más iluminación. Es una gran concesión por parte de Apple y realmente parece una característica nueva que se quedó a la mitad.
Luego está el modo cinematográfico que pasa a una resolución de 4K, lo cual es muy bienvenido. Para creadores de contenido hace una diferencia inmensa que el vídeo resultante esté en una resolución mayor con la que se pueda trabajar. Pero lo que realmente hubiese sido útil es 60 cuadros por segundo. Supongo que lo veremos en el iPhone 15 o 16. Aquí también siento que hubo concesiones.
El iPhone 14 Pro sigue siendo el rey del vídeo en un smartphone. No me veo utilizando otro dispositivo para hacer vídeos (cuando los tengo que hacer con un teléfono). No solo por el hardware, sino por el acceso a herramientas de software que no hay en ningún otro sistema operativo. Pero si el modo cinematográfico parecía hecho a medias en el iPhone 13 y 13 Pro, en el iPhone 14 y 14 Pro han pasado del 50 % al 70 %. Aún queda camino por recorrer.
Lo bueno es que, en general, todos los lentes tienen mejor desempeño con menos luz y eso también se nota en el vídeo. Menos ruido y un poco menos de grano grabando en interiores con luz complicada, ayudarán a que el iPhone 14 Pro sea más utilizado para contenidos más profesionales y no solo aquello que publicamos en stories de Instagram.
El iPhone 14 Pro se conecta con satélites, pero probablemente nunca lo vas a usar
Apple también está introduciendo funciones únicas a sus dispositivos que son, literalmente, para salvarte la vida. Tanto el iPhone 14, como el iPhone 14 Pro y el Apple Watch Series 8 o Ultra tienen detectan si estuviste involucrado en un accidente de coche.
Si ocurre, hace una llamada automática al teléfono de emergencia (911 en Estados Unidos, o 112 en España, por ejemplo). Indicando con una voz automatizada la ubicación del accidente, en bucle infinito. También notifica al contacto o contactos de emergencia que tengas configurado.
El algoritmo es suficientemente inteligente para determinar que se trata de un accidente de alto peligro, uno en el cual probablemente los ocupantes del vehículo hayan quedado inconscientes, donde hay más posibilidades que una llamada de emergencia automatizada salve vidas.
El iPhone 14 y 14 Pro tienen antenas especiales para hacer conexión satelital y así enviar mensajes de texto cuando no hay cobertura. No es algo que se puede usar en cualquier momento. Hace falta estar en un lugar donde definitivamente no hay red celular, en exteriores con exposición directa al satélite y, por medio de una nueva función en la app de Buscar, ayuda a hacer la alineación correcta para enviar y recibir mensajes de texto.
De hecho, la franja de exposición y conexión al satélite llega a ser tan corta que Apple ha desarrollado una nueva interfaz para seleccionar y enviar mensajes de texto previamente escritos. El servicio solo está disponible en Estados Unidos, será gratis durante dos años y empieza a funcionar en noviembre. Apple no ha anunciado cuál será el precio una vez que acabe el periodo de prueba. Tampoco hay noticias, de momento, sobre su disponibilidad en otras regiones.
Ambas funciones me parecen el tipo de novedades que pueden marcar una diferencia inmensa para una persona. Son herramientas que literalmente pueden salvar la vida a alguien y eso siempre es bienvenido. Cuando Apple anunció funciones de medición más exactas para el Apple Watch, comenté que este debería ser la dirección a la que se dirige la tecnología: dispositivos que tienen un impacto significativo en nuestra salud y nuestra esperanza de vida. Sonaba exagerado, pero hoy nos hemos acostumbrado a leer o escuchar historias de personas que, por tener un Watch en la muñeca, hoy están vivos.
Al mismo tiempo, es el tipo de funciones nuevas que quisieras nunca tener que probarlas o usarlas. Pero es bueno saber que hay una "capa" más de protección en mi vida gracias al smartphone que cargo en el bolsillo. Esperemos que la conexión satelital en emergencias llegue pronto a Europa.
¿Deberías comprar el iPhone 14 Pro?
Es fácil ser cínico y decir que entre el iPhone 13 Pro y el 14 Pro hay pocas diferencias, que la actualización no merece la pena. Mi postura está muy alejada al pesimismo y haterismo hacia Apple, pero mi conclusión es la misma.
Si tienes un iPhone 12 Pro o un iPhone 13 Pro, no creo que haga falta actualizar al iPhone 14 Pro. Con todas las mejoras que ofrece, en la mayoría de los casos, las fotos y video que hagas con dispositivos del año pasado o hace dos años ya son tremendamente buenos. Como mencionaba al inicio de esta reseña: los ciclos de actualización de tres años deberían normalizarse, porque la innovación es un poco más lenta ahora.
Pero eso no significa que el iPhone 14 Pro no sea un dispositivo fenomenal. Una visión polarizada te hace pensar que recomendar no actualizar anualmente tu smartphone significa que Apple "ya no innova", o que el dispositivo de este año "no es suficientemente bueno". Ese cinismo resta mérito a los logros de este dispositivo.
Personas que actualizan desde un iPhone 11 o una buena cantidad de dispositivos Android de hace dos o más años, experimentarán un salto inmenso.
Pero no será por la isla dinámica, o por el modo acción de la cámara, porque las fotos son un poco más luminosas, o porque la pantalla es always on. Es por la unión de todo. Porque al final, lo que mejor sabe hacer Apple es tener un resultado mucho más grande que la suma de sus elementos.