Uso eye2021

eye2021

La tecnología puede mejorar nuestra calidad de vida y, sobre todo, hacerle la vida más fácil a aquéllos que sufren algún tipo de discapacidad o sufren alguna enfermedad crónica. Hemos visto como la robótica está revolucionando las terapias de rehabilitación o lentillas que pueden monitorizar la glucosa de diabéticos, dos ejemplos que demuestran que la tecnología puede mejorar la calidad de vida de la gente, un hecho que podemos ver mucho más claro en un proyecto de la Universidad Politécnica de Valencia (España), eYe 2021, un sistema portátil que podría ayudar a los invidentes a detectar objetos y obstáculos a su paso gracias a un aviso sonoro emitido por el dispositivo.

Este sistema transforma en sonidos la información tridimensional del entorno que es captada a través de unas gafas que llevan un sistema de visión artificial. El sistema procesa la información del entorno y emite sonidos (como una secuencia de clics que son percibidas por el usuario como si proviniesen del objeto) como aviso de que existe un obstáculo que debe ser evitado y que emula el mecanismo de algunos animales que emiten sonidos y, según el eco recibido, son capaces de evaluar la distancia a la que están los obstáculos.

El sistema consta de las gafas, que alojan el sistema de visión, un pequeño computador (que tendría que llevar el usuario del sistema) y unos auriculares y, aunque pueda parecer un sustituto de los perros guía o el bastón, según los responsables del proyecto es un complemento a estos sistemas que en el futuro podía implementar funciones de reconocimiento facial o la ubicación espacial:

Su único objetivo es ampliar la gama de sistemas ya existentes para mejorar la independencia y permitir a los usuarios invidentes tener un sistema complementario

El proyecto, que ha sido presentado en la Convención de Innovación de la Comisión Europea, entrará en una fase de pruebas con algunas personas con discapacidad visual que probarán, en condiciones reales, el sistema para que éste pueda ser ajustado o mejorado. La idea es que, tras esta fase de pruebas, se comiencen a fabricar las primeras unidades en el mes de marzo para que el producto pueda ser comercializado el próximo verano.

Un sistema bastante interesante y que, en el fondo, recuerda a algunos hacks basados en Kinect que también realizan un modelado 3D del entorno y envían dicha información al usuario, por ejemplo, en forma táctil.

Suscríbete gratis a Hipertextual

Estamos más ocupados que nunca y hay demasiada información, lo sabemos. Déjanos ayudarte. Enviaremos todas las mañanas un correo electrócnio con las historias y artículos que realmente importan de la tecnología, ciencia y cultura digital.