jerseytom55

La división británica de Google ha comenzado a usar cientos de horas de programación de la BBC para enseñarle al software DeepMind a leer los labios.

El equipo entrenó a la inteligencia artificial con más de 5.000 horas de vídeo que incluía 110.000 diferentes frases y 17.500 palabras distintas. El objetivo era el de mejorar el entendimiento del lenguaje humano con o sin sonido.

Con un 46.8% de palabras correctamente leídas, el software resultó ser más eficaz que un humano traductor profesional humano quien acertó en el 12.14% de las ocasiones.

El experimento estuvo basado en una investigación de la Universidad de Oxford, un software llamado LipNet que podía leer con gran precisión los labios (acertó el 90% de las palabras), aunque únicamente analizó 57 palabras distintas.

Además de las obvias aplicaciones para las personas con discapacidades auditivas, este sistema de lectura de labios podría ser usado para que los usuarios se comuniquen con los asistentes virtuales como Siri y Cortana de manera visual.