NVIDIA ha lanzado una web que enseña lenguaje de señas con ayuda de la inteligencia artificial. El gigante tecnológico cerró un acuerdo con la Sociedad Americana para Niños Sordos (ASDC) para desarrollar Signs, una plataforma que mejora la educación a través de un conjunto de datos de código abierto.

De acuerdo con una publicación en el blog de NVIDIA, la funcionalidad central de Signs gira en torno a una biblioteca validada de señas, presentada a través de un avatar 3D, y un módulo impulsado por IA para el análisis de señas en tiempo real. Los usuarios pueden elegir entre aprender el lenguaje a través de lecciones cortas que se apoyan en una webcam o contribuir con sus propias señas.

La función de enseñanza de Signs proporciona acceso a un vocabulario inicial de 100 señas, lo que permite la comunicación básica en ASL. La interfaz de la plataforma permite buscar señas específicas y observar su ejecución por medio del avatar 3D. Posteriormente, un módulo de IA integrado analizará la ejecución del usuario, entregando retroalimentación inmediata sobre la precisión de las señas.

La primera versión se centra en los componentes manuales del lenguaje, como la configuración de las manos y trayectorias de movimiento. NVIDIA reveló que los desarrolladores integrarán otros indicadores, como expresiones faciales y movimientos de la cabeza que son críticos para transmitir el significado de las palabras.

YouTube video

NVIDIA quiere construir una base de datos con lenguaje de señas

El objetivo principal de la plataforma es construir un conjunto de datos de vídeo de código abierto. NVIDIA planea agregar más de 400.000 vídeos que representan 1.000 palabras en señas, una base para establecer un léxico visual que se nutrirá en futuras actualizaciones. Si el usuario elige contribuir, las señas serán sometidas a validación por usuarios e intérpretes fluidos de lenguaje de señas americano (ASL).

Signs no solo funcionará como un Duolingo para lenguaje de señas. NVIDIA planea utilizar el conjunto de datos para desarrollar aplicaciones de IA que faciliten la comunicación entre personas sordas y oyentes. Los datos de código abierto estarán disponibles para los desarrolladores, quienes podrían generar herramientas, agentes de IA o integraciones en aplicaciones de videoconferencia.

Usuarios aprenden lenguaje de señas a través de un ordenador con la plataforma Signs de NVIDIA.

Aunque el proyecto Signs se enfoca en el lenguaje de señas americano, NVIDIA podría llevarlo a otros idiomas tras su lanzamiento. Es relevante mencionar que los países de habla hispana utilizan diversas lenguas de señas, cada una con sus propias características, variaciones y particularidades regionales.

En España se utiliza la Lengua de Signos Españolas (LSE), mientras que México se basa en la Lengua de Señas Mexicana (LSM). Ambas poseen su propia estructura gramatical y vocabulario, así como movimientos de manos, expresiones faciales y corporales.