Los deepfakes no son algo nuevo. Abundan en la web fotos y vídeos hiperrealistas en los que se replica la apariencia de una persona (rostro, expresiones, voz, etc.) en el cuerpo de otra. Esto ha dado lugar a todo tipo de usos, con fines que van desde el entretenimiento a la malicia, pasando también por la contienda política. Sin embargo, existe otro tipo de deepfake que tiene potencial para convertirse en una amenaza si no se le presta debida atención. Se trata de los deepfakes geográficos o de imágenes satelitales.

La Universidad de Washington dio a conocer un estudio en el que muestra que es posible falsificar imágenes satelitales. Y esto es posible a través de la inteligencia artificial. El resultado final del proceso es sorprendente, con imágenes «trucadas» que parecen legítimas frente al ojo común.

Bo Zhao, autor principal del artículo y profesor asistente de Geografía en la Universidad de Washington, se refirió al alcance del estudio. «No se trata solamente de ‘photoshopear’ cosas. Es lograr que los datos parezcan increíblemente realistas. Las técnicas ya existen y tratamos de exponer la posibilidad de usarlas, y la necesidad de crear una estrategia para afrontarlas», mencionó.

Para demostrar cómo es posible crear deepfakes de imágenes satelitales, los investigadores utilizaron una estructura de IA que ya se había implementado para manipular archivos digitales. El algoritmo utilizado «aprendió» las características de las imágenes satelitales de un área urbana y las aplicó a un mapa base diferente, creando así el deepfake.

¿Por qué son un problema los deepfakes de imágenes satelitales?

Ilustración sobre cómo funciona el método para crear deepfakes de imágenes satelitales. Crédito: Universidad de Washington

En el ejemplo publicado por la Universidad de Washington, los especialistas pudieron fusionar mapas y fotografías satelitales de tres ciudades diferentes. En la prueba utilizaron un mapa base de Tacoma, en el estado de Washington, y lograron combinarlo con imágenes de Seattle y Beijing.

De esta manera, concluyeron que es posible «montar» un escenario que parte de un sitio real y que incorpora elementos de otros lugares también existentes, pero para crear una imagen falsa. Y la Inteligencia Artificial logra su cometido sin importar similitudes o diferencias en cuanto a topografía y uso del terreno.

Lo peligroso de esto radica, entonces, en que se puede falsear una porción de mapa sin demasiado esfuerzo. Eso podría llevar a que un gobierno utilice imágenes falsificadas para justificar determinadas acciones territoriales. O que la inteligencia de una operación militar se vea comprometida, debido a la divulgación intencional de información errónea.

Las inexactitudes en mapas existen desde tiempos ancestrales, y Zhao asegura que han sido una parte lógica del proceso para capturar la esencia de un lugar y trasladarla al papel. Sin embargo, los deepfakes de imágenes satelitales ponen sobre el tapete que este tipo de material no es inmune al engaño.

De todos modos, el investigador remarcó que la finalidad del estudio no es mostrar que los datos geoespaciales pueden ser falsificados. La intención definitiva es aprender a detectar las imágenes adulteradas, y que los geógrafos puedan «comenzar a crear herramientas de alfabetización de datos».

En el futuro, una vez que utilidades de este tipo se encuentren disponibles, el público será capaz de verificar la veracidad de una imagen y evitar equivocaciones.

Ahora en Hipertextual

Suscríbete gratis a Hipertextual

Estamos más ocupados que nunca y hay demasiada información, lo sabemos. Déjanos ayudarte. Enviaremos todas las mañanas un correo electrócnio con las historias y artículos que realmente importan de la tecnología, ciencia y cultura digital.