microsoftomnitouch

A estas alturas creo que a nadie le sorprende encontrarse dispositivos con pantalla táctil (móviles, tablets, cajeros automáticos, navegadores GPS, etc) o dispositivos que se activan mediante gestos que son captados por una cámara (como el Kinect de Microsoft). Parece que el control táctil de dispositivos, o mediante gestos, es un estándar que cada vez vemos en más dispositivos. Como cualquier tecnología también ha ido evolucionando (de pantallas resistivas a capacitivas, por ejemplo) y, lógicamente, se sigue trabajando en proyectos que intenten marcar el futuro de este tipo de interfaces. El centro de investigación de Microsoft, Microsoft Research, lleva casi 11 años trabajando en dispositivos táctiles y pensando en el futuro de éstos así que, aprovechando una convención sobre interfaces e interacción, han presentado dos de sus líneas de investigación: OmniTouch y PocketTouch.

OmniTouch

OmniTouch es un proyecto bastante vistoso que ha sido llevado a cabo por Chris Harrison (un estudiante de doctorado de la Universidad Carnegie Mellon y antiguo becario del Microsoft Research), Hrvoje Benko y Andy Wilson (de Microsoft Research) y que consiste en un sistema que el usuario lleva puesto y que le visualización gráfica e interacción multitáctil sobre cualquier tipo de superficie.

Queríamos aprovechar las enormes superficies que ofrece el mundo real. La superficie de la palma de una mano, en algunos casos, es más grande que la pantalla de un smartphone y las mesas son mucho más grandes que un tablet. Si podemos aprovechar esas superficies y adaptarnos al tamaño de éstas, podríamos dotar a los dispositivos móviles con una capacidad enorme para interactuar con los usuarios.

El OmniTouch se ha construido para ser llevado puesto, como si fuese una mochila, y está compuesto por un pico-proyector láser y una cámara que es sensible a la profundidad. La idea es que la cámara y el proyector se calibren la una a la otra, simplemente, mediante su uso, adaptando la imagen en todo momento a la superficie y a nuestros movimientos:

Esta cámara, realmente, funciona de la misma manera que Kinect pero en un rango de distancia más pequeño. La combinación de la cámara y el proyector simplifica mucho las cosas puesto que la cámara reporta la profundidad y el láser proyecta una imagen que siempre está enfocada. Si se produce un movimiento, la cámara lo detecta y se corrige la imagen del láser.

Uno de los detalles más curiosos del proyecto es la adaptación de la imagen a la superficie de proyección. En una primera aproximación, el equipo definió patrones fijos (un brazo, la mano, una libreta o una pared), algo que requirió que el sistema aprendiese a detectar y clasificar estos patrones para proyectar la imagen más adecuada. Por otro lado, la segunda aproximación se fundamentó en el uso de un puntero con el que se definen los límites de la superficie a utilizar y, así, adaptar la imagen.

Queríamos usarlo sobre cualquier superficie. Si dejamos que el usuario defina el área de trabajo y el sistema es capaz de adaptarse, estaremos creando un sistema muy flexible y adaptable a las necesidades del usuario.

PocketTouch

PocketTouch (Through-Fabric Capacitive Touch Input) es otro proyecto del equipo de Microsoft Research que también es bastante interesante puesto que desarrolla un sensor capacitivo (y multitáctil) que se monta en la parte trasera de un smartphone para que el usuario pueda manejar el teléfono sin necesidad de tenerlo en su mano y mirar la pantalla de éste. Dicho así, quizás, suena un poco raro pero la idea es bastante sencilla.

Imaginemos que vamos andando por la calle y tenemos conectado un dispositivo manos libres por bluetooth, si el teléfono sonase, podríamos meternos la mano en el bolsillo y, realizando ciertos gestos sobre la tapa trasera del terminal, tendríamos la opción de contestar la llamada o colgar sin tener que sacar el teléfono.

Imagina que suena el teléfono en una reunión y éste no estaba en silencio. Lo normal sería que buscases en tu bolsillo, lo sacases y lo pusieses en silencio. Queríamos hacer algo diferente y nos planteamos una pregunta: ¿podríamos incrementar la superficie táctil para dotar al terminal de un mayor rango de entradas?

El reto para los investigadores está en que la posición del teléfono es relevante para detectar los gestos, es decir, que no es lo mismo que el terminal esté en vertical que en horizontal.

Teniendo en cuenta que el terminal puede estar en el bolsillo del usuario, realmente, no tenemos idea de cuál es su posición. Podríamos usar un giroscopio para detectar la orientación pero, aún así, desconocemos desde que lado va a tocar el usuario el dispositivo.

Para solventar el problema, el equipo introdujo un gesto especial que sirve para desbloquear las órdenes y que, en el fondo, lo que hace es calibrar el dispositivo para detectar la posición de referencia para poder interpretar correctamente los gestos. Tras esto, el siguiente paso es detectar los gestos o reconocer caracteres escritos sobre esta "tapa táctil" teniendo en cuenta que, estando en el bolsillo, esta superficie táctil también estará recogiendo "ruido".

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: