A día de hoy, hablar de robots es algo que se nos torna cotidiano puesto que hemos visto aplicar soluciones basadas en robots en muchos sectores productivos. Desde asistentes para personas con dependencia pasando por las prótesis hasta llegar a robots de inquietante aspecto humano, hemos visto cómo los robots tienen la capacidad de realizar cada vez más funciones y, a veces, uno llega a pensar en la singularidad cuando ve en funcionamiento algunos robots. Precisamente, el Laboratorio de Inteligencia Artificial de la Universidad de Tsukuba (Japón) ha presentado un robot capaz de actuar según las emociones de "su cuidador" para que el robot aprenda lo que está bien y lo que está mal.

La verdad es que, a primera vista, suena un poco raro pero el equipo de este Laboratorio ha desarrollado un interfaz de comunicación con el robot, de nombre Nao, con el que interpretar el feedback que damos según la expresión de nuestro rostro, por tanto, si sonreímos, Nao interpretará que lo está haciendo bien y asumirá que la acción que está ejecutando es correcta, por el contrario, fruncimos el ceño (mostrando que estamos enfadados o que no aprobamos lo que está haciendo el robot), Nao asumirá que lo está haciendo mal.

Este funcionamiento, que es idéntico al proceso de aprendizaje de las mascotas o los niños pequeños, se basa en unos sensores dispuestos en la cabeza del cuidador que son capaces de detectar el gesto que estamos haciendo con la cara y traducirlo a una señal que es enviado a Nao en forma de feedback de sus actuaciones, algo así como aplicar el KITA positivo y el KITA negativo del que suele hablar en la motivación de equipos de trabajo en el ámbito empresarial.

¿Y cómo es posible distinguir que alguien está sonriendo o frunciendo el ceño? El interfaz de comunicación con Nao, como comentábamos al inicio, está basado en un sistema de sensores y electrodos que, basándose en la Electromiografía, es decir, el registro de la actividad eléctrica producida por los músculos. ¿Los músculos emiten señales? Pues sí, aunque de muy poca intensidad puesto que la señal ronda los 50 μV hasta los 20 o 30 mV con una frecuencia que oscila entre los 7–20 Hz. Así que, basándose en estas señales fisiológicas, este interfaz es capaz de discernir entre la señal emitida cuando nos reímos o cuando fruncimos el ceño.

Ver a un robot que aprende según la aprobación que le demos en base a nuestros gestos es bastante curioso y, sobre todo, novedoso; si bien es cierto que abre una ventana de posibilidades para el control automático de robots, tanto para lo bueno como para lo malo.

Suscríbete gratis a Hipertextual

Estamos más ocupados que nunca y hay demasiada información, lo sabemos. Déjanos ayudarte. Enviaremos todas las mañanas un correo electrócnio con las historias y artículos que realmente importan de la tecnología, ciencia y cultura digital.