Los avances de la Inteligencia Artificial –IA– son cada vez más evidentes y palpables. Cada cierto tiempo, un nuevo método permite realizar tareas de forma más y más parecida a lo más espeluznante de la ciencia ficción. Es lo que ocurre con un estudio conjunto de Google y la Universidad de Stanford, que entrenando una red neuronal para convertir imágenes satelitales a mapas descubrieron que esta estaba haciendo trampas y escondiéndoles información.

No lo hacía, eso sí, en el sentido más estricto. Una red neuronal es entrenada para realizar tareas y minimizar el error resultante. Si los condicionantes que le impones no son suficientes, intentará buscar un 'atajo' para realizar su trabajo de la forma más perfecta y rápida posible. Y eso es precisamente lo que ocurrió aquí.

Representar lo necesario, esconder el resto

La idea del proyecto era utilizar una red neuronal, a la que llamaron CycleGAN, para acelerar y mejorar el proceso de conversión de imágenes satelitales a mapas. Para ello, convertía imángenes por satélite en mapas, que eran de nuevo convertidos a imagen para compobar la certeza del proceso. La sorpresa para los investigadores fue que el resultado era muy bueno. Demasiado.

La red neuronal debía interpretar las características de un tipo de mapa con las del otro, pero estaba siendo evaluada en cómo la imagen recreada al final –tras pasar por el mapa en un paso intermedio– coincidía con la original, y la claridad del mapa obtenido. Por tanto, se estaba viendo premiada por obtener un mapa visualmente limpio y que a su vez mantuviera tanto detalle como fuera posible en el paso final. O lo que es lo mismo: representar lo necesario, escondiendo el resto.

Esta información estaba siendo codificada en forma de ruido de alta frecuencia. Pequeños cambios imperceptibles al ojo humano que retenía todo el detalle urbano –como farolas o coches–, pero fácilmente interpretables por ella. Como vemos, sustrayendo el mapa esperado y amplificando la señal remanente vemos un ruido con la forma de la imagen aérea.

En el estudio, publicado a finales de 2017 y que comenta TechCrunch, se hace referencia a la técnica estenográfica –ocultar información en distintos soportes para establecer un canal de comunicación adicional– que supone este uso por parte de esta IA. La estenografía no es un método ni mucho menos reciente: se remonta a más de dosmil años atrás y permite, por ejemplo, cifrar los metadatos de una imagen de forma imperceptible.

En definitiva, lo que estaba haciendo CycleGAN era realizar la tarea en mano con los recursos que se le habían proporcionado. Con restricciones más intensas acerca de, por ejemplo, el peso del mapa resultante quizá no hubiera podido desarrollar este pequeño truco. Transmitir los detalles que no es capaz de interpretar, para resolver el problema de la forma más fácil posible: copiando.

Dínamo

Dínamo es el nuevo podcast de Hipertextual donde hablamos, discutimos, analizamos y nos obsesionamos con Apple.