El vídeo con el que abrimos muestra en imágenes como representa o construye nuestro cerebro lo que vemos en el cine o la televisión. Se trata de un experimento histórico si tenemos en cuenta que hasta ahora no se tenían procesos visuales en la materia. A la izquierda, diferentes clips de YouTube, a la derecha, la actividad cerebral y el registro visual que realiza el cerebro humano. El avance ha sido posible a través del sistema de resonancia magnética funcional y supone un paso grandioso hacia la reconstrucción de imágenes internas en la mente del ser humano.
Pensemos por un momento que lo que hoy mostramos es un paso más hacia el entendimiento de nuestra mente, de como registra los datos que vemos y cómo los representa. No sólo eso, el avance permitiría que en un futuro se puedan llevar reconstrucciones visuales de los propios sueños del ser humano vistos desde una pantalla de ordenador.
El experimento ha sido llevado a cabo por Shinji Nishimoto, de la Universidad de California (Berkeley). Para ello se expusieron dos tipos de trailers de películas de Hollywwod a través del sistema de resonancia funcional sobre tres sujetos que debían estar inmóviles.
Este tipo de método conocido también por sus siglas RMNF, es un sistema de examen médico no invasivo generalmente utilizado para tratar diagnósticos y enfermedades. El sistema emplea un campo magnético potente a través de radiofrecuencias con las que un ordenador puede crear imágenes detalladas.
En el experimento que se llevó a cabo, el sistema registró el flujo de sangre que llegaba al cerebro a través de la corteza visual. Todo lo que se iba registrando pasaba a un ordenador que dividía en tres dimensiones unidades de píxeles llamadas voxels. Este proceso es capaz de decodificar las señales del cerebro que generan imágenes en movimiento y la conexión existente entre la información del movimiento de las películas y las acciones específicas de nuestro cerebro.
Una vez registrada la información de este primer grupo de trailers, se pasó a un segundo grupo para probar el algoritmo de reconstrucción de la película. Para ello introdujeron 18 millones de segundos de vídeos de YouTube al azar en el programa. De esta manera podría predecir la actividad cerebral que evocaba cada clip de trailer.
Por último, el programa seleccionó 100 clips que creyó más parecidos a lo que realmente habían visto en los vídeos, fusionándolos para reproducir las imágenes que hoy mostramos del cerebro.
Increíble pero cierto. Hoy el hombre está más cerca de la posibilidad de reconstruir en imágenes la actividad de nuestro cerebro. Quizá en unos años los recuerdos o los propios sueños puedan ser mostrados a través de una pantalla. Les dejo con las palabras de Nishimoto sobre el éxito del experimento:
Nuestra experiencia visual natural es como ver una película. Para que esta tecnología tenga una amplia aplicación, tenemos que entender cómo procesa el cerebro las experiencias visuales dinámicas. Hemos construido un modelo para cada voxel que describe cómo se forma la información del movimiento en la película asignada a la actividad del cerebro.
Los científicos necesitamos comprender cómo procesa el cerebro la dinámica de los acontecimientos visuales que experimentamos en la vida cotidiana, pero para ello tenemos que entender primero cómo funciona el cerebro mientras estamos viendo películas