Una mujer con parálisis en EE. UU. ha logrado comunicarse gracias un sistema que combina neurociencia con inteligencia artificial. Ann, de 47 años, ahora puede hablar, fruncir el ceño o mostrar sorpresa a través de un avatar digital, que traduce los impulsos de un implante en su cerebro.

Ann sufrió un derrame cerebral cuando tenía 30 años. El accidente la dejó gravemente paralizada: perdió el control de todos los músculos de su cuerpo. En un punto, ni siquiera podía respirar. Gracias a años de fisioterapia, logró mover algunos músculos faciales. Volvió a sonreír o a llorar, pero no había logrado hablar.

Esta es la primera vez que se sintetizan el habla o las expresiones faciales a partir de señales cerebrales, asegura el equipo de investigadores de la Universidad de California, responsable del proyecto. La tecnología se basa en un implante colocado en la superficie del cerebro de Ann en zonas asociadas con el habla y el lenguaje. Contiene 253 electrodos que captan las señales cerebrales de miles de neuronas.

«Creo que ustedes son increíbles», dijo Ann a través del avatar digital proyectado en una pantalla. Era la primera vez que hablaba en 18 años. En la operación en la que le implantaron el chip cerebral, realizada el año pasado, los médicos también instalaron un puerto en su cabeza. A través de él, se conecta a un cable que trasmite las señales de su cerebro a un grupo de computadoras.

Estos equipos activan una serie algoritmos de inteligencia artificial, que traducen las señales cerebrales en palabras. El sistema tiene la capacidad de decodificar estas señales en texto a un ritmo de 78 palabras por minuto.

YouTube video

El avatar digital como esperanza para otras personas con parálisis

«Nuestro objetivo es restaurar una forma de comunicación plena y encarnada, que es la forma más natural para nosotros de hablar con los demás», dijo Edward Chang, presidente de cirugía neurológica de la Universidad de California en San Francisco.

Chang ha trabajado durante más de 10 años en esta interfaz cerebro-computadora. El científico espera que el último avance de la investigación, publicado en Nature esta semana, impulse un sistema aprobado por la Administración de Alimentos y Medicamentos de EE. UU., que permita que otros pacientes como Ann puedan volver a hablar en el futuro.

El sistema es significativamente más rápido y preciso que tecnologías anteriores. Ann estaba utilizando otro dispositivo que le permitía escribir en una pantalla, con movimientos lentos de su cabeza. La velocidad con la que lograba comunicarse era de 14 palabras por minuto. El nuevo invento casi sextuplica este ritmo.

Un aspecto clave: la voz que se escucha es la suya. Los investigadores aprovecharon una grabación de Ann en su boda para personalizar la voz del avatar digital. «Quiero que los pacientes me vean y sepan que sus vidas no han terminado», expresó Ann, de acuerdo con un comunicado de la universidad. «Quiero mostrarles que las discapacidades no tienen por qué detenernos ni frenarnos».

Ann, una paciente con parálisis, mientras se comunica a través del avatar digital.

La revolución de la inteligencia artificial

El sistema también convierte las señales cerebrales de la persona con parálisis en movimientos faciales del avatar digital. Así, mientras habla, la animación puede apretar los labios, fruncir la frente o abrir la boca sorprendida, para corresponder con lo que está diciendo. No basta con pensar en algo: la persona tiene que intentar hablar para que el sistema lo capte, explican los investigadores.

Ann enteró del estudio después de leer sobre un hombre paralítico llamado Pancho, quien ayudó al equipo de Chang a traducir sus señales cerebrales en texto mientras intentaba hablar. Pancho también había sufrido un derrame cerebral muchos años antes, por eso no estaba claro si su cerebro todavía podía indicar los movimientos del habla.

Varias instituciones científicas han anunciado soluciones impresionantes gracias a la inteligencia artificial. La compañía Kurage, por ejemplo, está probando en Europa un sistema de pantalones impulsados con esta tecnología que está ayudando a caminar a personas con parálisis parcial. Otros investigadores de la Universidad de Osaka, en Japón, desarrollaron un mecanismo capaz de leer ondas cerebrales, identificar qué está pensando una persona y traducirlo en una imagen de altísima resolución.