El pasado jueves se conocía DeepNude, una polémica aplicación que permitía realizar el trabajo de edición de imagen de quitar la ropa a fotografías exclusivamente de mujeres de forma automática y haciendo uso de algoritmos de deep learning o inteligencia artificial. Tras la exposición recibida en las horas siguientes a las primeras publicaciones, esta echa el cierre supuestamente definitivo.
El motivo esgrimido por el que parece su único desarrollador, de la desarrolladora deepinstruction con sede en Estonia –pero que se hacía llamar Alberto ante la prensa internacional–, es que con la gran repercusión y el gran número de descargas iniciales, que cifra en medio millón, "las probabilidades de uso indebido son demasiado altas" y "no quieren hacer dinero de esa forma".
La machista aplicación que utiliza el deep learning para «desnudar» a mujeres
Uso indebido sí, pero poquito
Desde la cuenta de Twitter de la aplicación apuntan a que las "medidas de seguridad" –únicamente la marca de agua sobre la imagen– no serían suficientes si tanta gente la usa, y "no quieren ganar dinero de esta forma" ni "ser los que la vendan".
— deepnudeapp (@deepnudeapp) June 27, 2019
Recordemos que la aplicación, que era gratuita, contaba con una versión ampliada que costaba unos 50 dólares en un primer momento para más tarde aumentar su precio al doble, tras ver la repercusión inicial. Esta le llevó a colapsar los servidores durante las primeras horas, llegando incluso a tener que cerrar su página web.
DeepNude afirma que no publicará ninguna otra versión y "no consiente el uso de la misma a nadie". Curiosamente, acaba el comunicado afirmando que "el mundo no está listo todavía para DeepNude", como si no fuera totalmente al contrario.
Coge el dinero y huye
Realmente, no parece que estas "medidas de seguridad" fueran suficientes de ninguna forma ya que la propia aplicación está concebida casi por definición en el uso indebido de imágenes ajenas y sin consentimiento. Y ahora que ha amasado probablemente más dinero –y atención– del que esperaba, se intenta evitar las repercuisiones legales que una aplicación de este estilo pueda tener.
DeepNude funcionaba con un pix2pix, un motor de deeplearning abierto y publicado en 2017 por la Universidad de Berkeley, que sirve habitualmente para realizar procesado de imágenes para tareas tan diversas como el entrenamiento de sistemas de conducción autónoma, generado de mapas a través de imágenes satelitales o incluso el coloreado de imágenes en blanco y negro de forma automática.
Colorea fotos en blanco y negro sin esfuerzo
Pero esas imágenes no se procesan de la nada, sino que realmente lo que hacía DeepNude es sustituir los trozos que se correspondían con ropa con otros procedentes de más 10.000 imágenes, según reconocía el propio Alberto a Motherboard, de mujeres desnudas obtenidas de internet. Estas, seguramente, sin ningún tipo de derechos de explotación.
La propia web del desarrollador, deepinstruction.com, ya no se encuentra accesible. Allí ayer mismo se listaban otros proyectos en los que supuestamente estaba trabajando: DeepOld, para colorear imágenes en blanco y negro y DeepBackground, para sustituir el fondo de una imagen. Estos dos enfoque son mucho menos polémicos y de hecho, ya existen multitud de sitios que realizan tareas similares.