Llamar a Siri y a Google Now una promesa incumplida quizá sea exagerar un poco, pero lo que sí es seguro es que se quedan lejos de ese futurismo geek que nos permitiría hablar con nuestros dispositivos a lo David Hasselhoff en Knight Rider. El reconocimiento de voz hace tiempo que dejó de ser un problema y las limitaciones más bien caen del lado del poder de procesamiento, que hace necesario comprimir la voz, enviarla a unos servidores en la nube, interpretarla y mandarla de vuelta. Dicho de manera simple: requieren de una conexión permanente a Internet.

Pero Intel, que después de llegar relativamente tarde a la industria móvil está entrando a cuchillo en el terreno de los wearables con proyectos como Quark o Edison quiere arreglar ese problema. Según reporta Mike Bell, responsable de wearables dentro de la compañía, en una entrevista con Quartz están trabajando en un prototipo que lleva un procesador capaz de manejar toda la carga derivada de interpretar los comandos de voz y entregar resultados que no dependan de una conexión a Internet (como llamar por teléfono a alguien en la agenda o abrir una aplicación) al instante. El nombre del prototipo no podría ser más sugerente: Jarvis, como el eficaz asistente de Iron Man.

Permitiría conversaciones sin retraso de 1 o 2 segundos, como ocurre actualmente

La conexión a la nube tiene también algunos inconvenientes extras de por medio. Como apunta Bell, el actual modelo implica que como mínimo hay un retraso de 1 o 2 segundos entre que se formula y se recibe la respuesta. La comunicación humana es todo lo contrario, para que la integración de un asistente artificial se produzca de manera natural ese periodo de respuesta tiene que ser, como mínimo, igual al de un ser humano.

Está claro que no es una cuestión de todo o nada, es decir, lo idóneo para un sistema de reconocimiento por voz es que trabaje conectado a Internet y pueda realizar tareas como reservar mesa en un restaurante o averiguar el horario de una película en el cine que son imposibles sin una conexión de por medio. Google ya está trabajando en un modo offline para Google Now que promete bastante pero parece que todavía se hará esperar.

Todavía es pronto para predecir las futuras integraciones de Jarvis. Lo más probable es que lo veamos instalado en smartphones pero, por qué no soñar, tiene un futuro indudable instalado en sistemas operativos de coches, en gafas, relojes y wearables o incluso en robots.

Participa en la conversación

3 Comentarios

Deja tu comentario

  1. Si Intel fabrica y vende el hardware, pero abre el desarrollo a la comunidad opensource, el éxito está asegurado.

    Mi casa ya habla, gracias a Linux y a Festival. Ahora sólo necesito que me entienda ;-)

  2. Llamar a alguien de la agenda, encender el reproductor de musica y abrir aplicaciones a base de comandos de voz ya lo hacia mi Nokia 3110c y posteriormente mi Nokia 5800 sin ningún tipo de conexión móvil; tienen que currarselo más, hacerlo mas elaborado, que sea algo realmente útil, como el Moto X que no hace falta darle a un botón para poder meterle un comando por voz.

    1. Realmente eran sólo ejemplos pero sí, totalmente de acuerdo. Mi idea, y de ahí lo de Jarvis, es que se convierta en lo más parecido a una IA autónoma capaz de conversar, no sólo de responder.

      Ahora mismo el modelo en la mayoría de los asistentes es el de Pregunta > Respuesta, con algún detalle adicional (por ejemplo si le dices a Siri que cree un evento en el calendario donde ya había otro ella te pregunta si el otro lo borra o deja los dos).

      Lo interesante empezará a a ocurrir cuando esos comandos de voz acaben por convertirse en conversaciones, no sólo en comandos pregrabados y almacenados en una nube.