Tras los escandalosas técnicas que ponían caras de personajes famosos en situaciones de toda índole, conocidos como deepfakes, una nueva aplicación acerca los algoritmos de imagen basados en deep learning al desnudo de imágenes de mujeres.

El software, que se hace llamar DeepNude, utiliza las redes neuronales para reconocer las partes de la imagen que se corresponden con la ropa y sustituirla con la información recopilada a partir de miles de imágenes de mujeres desnudas descargadas de internet. Tras ser publicada esta misma semana y cubierta por Motherboard, ha elevado el coste de su versión completa de 50 a 100 dólares y está teniendo dificultades para mantener los servidores funcionando.

Del deepfake al deepnude

El programa, que se promociona como una aplicación de rayos X basado en inteligencia artificial, está desarrollado para sistemas de escritorio. Proporciona imágenes a baja resolución con una marca de agua con la palabra "FAKE" en rojo, aunque esta se encuentra en una esquina superior y es fácilmente recortable, amplificando el debate de qué es real y qué es fake tras la irrupción de los algoritmos de inteligencia artificial más modernos.

Resulta obvio que esta aplicación no desnuda realmente a nadie, sino que más bien realiza el trabajo de sustitución de elementos con otros relativamente aproximados –y desnudos– al de las mujeres en cuestión. Aun así, pone al alcance de cualquiera, sin conocimientos de Photoshop previos, realizar un uso no consentido de imágenes disponibles online. A diferencia del proceso de creación de deepfakes, que lleva horas, conocimientos técnicos y el uso de un equipo de escritorio potente, este tipo de aplicaciones son relativamente inmediatas, reduciendo su funcionamiento a unos pocos clicks y una espera del orden de un minuto.

DeepNude utiliza una implementación de software de pix2pix, un desarrollo de la Universidad de Berkeley que utiliza redes generativas antagónicas (GANs) –habitualmente utilizado para generar mapas o entornos de conducción autónoma, entre otros usos– entrenadas con más de 10.000 imágenes, según afirma el propio desarrollador, que se hace llamar Alberto. Hany Farid, uno de los especialistas en informática de esta universidad afirmaba a Motherboard estar sorprendido por la facilidad con la que se ha adaptado, y apunta:

"Vamos a tener que mejorar en la detección de deepfakes, y los académicos e investigadores van a tener que pensar más críticamente sobre cómo salvaguardar mejor sus avances tecnológicos para que no se conviertan en armas y se usen de forma no intencionada y dañina. Además, las plataformas de medios sociales van a tener que pensar más cuidadosamente sobre cómo definir y hacer cumplir las reglas que rodean a este contenido. Y, nuestros legisladores van a tener que pensar en cómo regular cuidadosamente en este espacio"

La publicación de este software da una vuelta de tuerca más al debate en torno al uso de la tecnología en contra de las mujeres, usando imágenes sin su consentimiento que pueden llevar a la distribución malicosa de contenido de caracter pornográfico. Sin que realmente la protagonista sepa que esas imágenes siquiera existen.

En Estados Unidos ya está en marcha un proyecto de ley, introducido este mismo mes, que intenta "defender a cada persona de apariencias falsas". Y no parece que vaya a ser suficiente, sino que algunos expertos apuntan a la responsabilidad individual de la ciudadanía de evitar el consumo de material pornográfico obtenido de formas ilícitas, ya sean mediante el llamado porno de venganza o generado por una inteligencia artificial.