El día de ayer Apple publicó la tercera beta para desarrolladores de iOS 13 la cual incluye una nueva funcionalidad llamada Corrección de la atención de FaceTime -descubierta por el desarrollador Mike Rundle-. Esta nueva característica simula que el participante de la llamada está mirando a la cámara frontal aunque, en realidad, sus ojos estén apuntando hacia la pantalla.

Normalmente en las videollamadas se mira directamente a la pantalla y no a la cámara delantera, por lo que da la sensación de los participantes miran cada uno a un lado, y no de forma directa a la persona con la que están hablando.

Fotografía cámara frontal simulando videollamada de FaceTime

Sin embargo, con la nueva función activada parece que el sistema aplica algún tipo de manipulación en la imagen, que corrige esa sensación produciendo un contacto visual falso, pero bastante realista.

Corrección de la atención en FaceTime activada durante la videollamada

Por el momento, esta nueva opción solo se encuentra disponible en los iPhone XS Max, iPhone XS y iPhone XR que tengan instalados la tercera beta de desarrolladores, por lo que la función podría requerir el uso del Neural Engine incorporado en el procesador A12 Bionic. Para probarla lo único que hay que hacer es ir AjustesFaceTimeActivar Corrección de la atención de FaceTime.

*En Hipertextual hemos tenido que realizar varios intentos hasta lograr los resultados. Hay que considerar que se trata de una versión beta y, como es lógico, aún no funciona de forma estable. La release* final de iOS 13 debería ofrecer una experiencia más satisfactoria.

Por el momento, Apple no ha detallado cómo se logra este efecto, con qué dispositivos funcionará o si podrá funcionar en llamadas grupales. Todos estos detalles, en principio, se irán desvelando con el paso del tiempo.

YouTube video

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: