Apple ha anunciado hoy una serie de nuevas características de accesibilidad disponibles para el iPhone y el iPad, y que llegarán, tal y como indica la compañía, el próximo año; muy probablemente, junto a iOS 17. Se trata, por tanto, de las primeras funciones que la compañía revela de la próxima actualización para el iPhone. Las nuevas prestaciones, en concreto, están destinadas a mejorar el día a día a aquellas personas con problemas cognitivos, visuales, auditivos o de movilidad. Combinan, además, tanto funciones de hardware, como de hardware y aprendizaje automático.

Una de las nuevas funciones de accesibilidad que llegarán con iOS 17, es la de Assistive Access. Se trata de un modo que “destila” las aplicaciones, manteniendo únicamente las funciones esenciales y ajustando algunos elementos, como el tamaño de los botones y el texto, etc. Con Assistive Access, por ejemplo, la app de Teléfono y FaceTime se fusiona solo en una con ambas funciones. La de cámara, recibe un único modo y un obturador de gran tamaño, o la de Mensajes muestra solo un teclado de emoji y la posibilidad de enviar un vídeo.

Apple también ha anunciado Live Speech para iOS 17, una nueva función de accesibilidad para personas que no pueden hablar o que sufren el riesgo de perder la capacidad de hablar. Entre ellas, ejemplo, aquellas diagnosticadas con ELA (esclerosis lateral amiotrófica). Con Live Speech, en concreto, los usuarios solo tienen que escribir en la pantalla y hacer que el iPhone dicte el texto en voz alta. La función también incluye una sección en la que es posible guardar frases frecuentes o de uso común para activarlas inmediatamente y hacer la conversación más fluida.

Live Speech en iOS 17 también permitirá crear una “voz personal” que el iPhone posteriormente puede reproducir la propia voz del usuario. Para ello, y durante 15 minutos, el usuario deberá leer y grabar diferentes frases para entrenar al iPhone y que este pueda dictar con su voz cualquier otra frase.

Otras mejoras de accesibilidad que llegarán pronto a iOS 17

La app de Lupa del iPhone en iOS 17, por otro lado, será capaz de leer en voz alta los botones que el usuario está apuntando con su dedo. Se trata de una función destinada a personas con problemas visuales. Hace uso, además, de la “la entrada de la aplicación de la cámara, el escáner LiDAR y el aprendizaje automático”, indica Apple. La persona solo tiene que enfocar la cámara al botón e indicar con el dedo. El iPhone, posteriormente, detectará el texto y lo dictará en voz alta.  

Hay otra serie de características de accesibilidad que también llegarán al iPhone y iPad próximamente. Son las siguientes.

  • En iOS 17, aquellos usuarios con problemas de audición podrán enlazar dispositivos auditivos Made for iPhone en un Mac.
  • Voice Control en iOS 17 añadirá sugerencias fonéticas para la edición de texto. De este modo, podrán seleccionar la palabra correcta si esta se parece mucho a otra.
  • Los interruptores para Switch Control se podrán utilizar como control de juegos.
  • Será posible pausar imágenes en movimiento, como GIFs, en apps como Mensajes o en Safari.
  • VoiceOver permitirá ajustar la velocidad a la que Siri habla, escogiendo entre velocidades de 0,8x hasta 2x.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: