Aunque parte de la cultura de innovación de Google (la famosa [política del 20%](http://alt1040.com/2013/08/cultura-innovacion-google)) se haya perdido y los proyectos de investigación se hayan formalizado dentro de la áreas concretas de la compañía, los de Mountain View siguen alimentando un increíble motor de proyectos de I+D. Al igual que ocurre con [Microsoft Research](http://alt1040.com/tag/microsoft-research), el desarrollo de nuevos interfaces también ocupa un importante lugar dentro de la actividad de investigación de Google y, en este sentido, hoy han presentado un singular proyecto llamado Open Project con el que pretenden que llevemos, a cualquier pantalla, los contenidos de nuestro *smartphone*.

**Open Project** se plantea como objetivo el desarrollo de un *framework* que permita a los usuarios proyectar, en cualquier pantalla, el contenido de su *smartphone*. Dicho de otra forma, un usuario podría proyectar en la pantalla de su ordenador el juego que se está ejecutando en su dispositivo móvil y, además, interactuar sobre esta pantalla como si estuviese jugando sobre la pantalla táctil del *smartphone*.

Visto así, uno podría pensar que se trata de un sistema que se apoya en una conexión entre nuestro *smartphone* y el PC; sin embargo, el esquema es mucho más abierto y no implica que los dispositivos tengan que establecer una conexión directa entre sí, se apoyarán en un servidor intermedio que será el que ejerza de pasarela entre ambos. La cámara de nuestro *smartphone* es el pilar sobre el que se sustenta el sistema Open Project puesto que la cámara es la que capta un código QR de la pantalla y establece el vínculo con el sistema.

Una vez que estén emparejados el *smartphone* y la pantalla, el dispositivo móvil enviará el contenido de su pantalla al servidor y éste se la enviará al controlador de la pantalla; de esta forma, el usuario podrá reproducir un juego o la galería de imágenes y «proyectarla» virtualmente desde su *smartphone*. La cámara del terminal ejerce otra función interesante, es la encargada de capturar movimientos y gestos y, por tanto, traducirlos a acciones en nuestro *smartphone* (y, además, también es la encargada de «controlar» la posición relativa con respecto a la pantalla para ir moviendo la imagen en caso que nos desplacemos).

Por ahora el proyecto está en una fase muy temprana pero Open Project se presenta como un sistema abierto, escalable y basado en la web; un sistema que podría dar mucho juego a los desarrolladores y abrirles la puerta a aplicaciones mucho más interactivas. Google aspira a que Open Project, con el tiempo, pueda integrarse dentro de sus plataformas (tanto **Chrome OS** como **Android**) y, en mi opinión, podría aportar una experiencia de uso muy interesante.

Participa en la conversación

6 Comentarios

Participa en la conversación, deja tu comentario

  1. Hablando de smartphones y pantallas, y saliéndome del tema, alguien que me pueda ayudar…
    Hace unos días estaba viendo fotos en mi teléfono Android mientras mi pareja veía algún programa en Netflix, cuando de repente mis fotos, que por fortuna eran fotos de gatos, interrumpieron su programa. No sé qué hice o a qué le piqué, pero tengo como 400 fotos vaciladoras más en mi teléfono que me gustaría ver en pantalla gigante.
    ¿Cómo se le hace?

    Gracias.

  2. El concepto ya existe desde hace mas de un año en Windows Phone, se llama PhotoBeamer y lo desarrolló Nokia para sus terminales. Si bien es una forma más rústica del proyecto del articulo (solo sirve para fotos) es básicamente lo mismo que está haciendo Google, incluido el código QR para «emparejar» los aparatos.
    Aquí una muestra: http://www.youtube.com/watch?v=fbvm1At-vGc

    1. mas bien algo como el WiDi de intel :P, lo de apple lo trae cualquier telefono y cualquier pantalla solo que se llama UPnP mejor conosido como dlna