'Deepfake'
– Jul 2, 2020, 10:00 (CET)

‘Deepfake’: del enemigo número uno en redes a un aliado en la lucha por los derechos LGTBI+

El documental Welcome to Chechenya ha utilizado la tecnología del 'deepfake' para mantener el anonimato de las personas del colectivo LGTBI+ que son perseguidas y torturadas.

Lo que conocemos del deepfake es de todo menos positivo. Un vídeo porno con la cara de una actriz famosa o con las supuestas declaraciones incendiarias de un presidente. La inteligencia artificial para reemplazar los rostros se popularizó en Reddit pero ha trascendido en los últimos años, lo que ha provocado una campaña de acción para identificarlos y eliminarlos. Sin embargo, esta tecnología tiene también un lado positivo que llega hasta la lucha por los derechos LGTBI+.

El documental Welcome to Chechenya de HBO, que se estrenó el 30 de junio, habla de la persecución de las personas pertenecientes a esta comunidad en la república rusa de mayoría musulmana. La producción habla de una red clandestina que ayuda a estas personas, en su mayoría homosexuales, a salir del país y así evitar la tortura, el acoso y hasta el asesinato. Pero el director, David France, tenía que explicar las historias de los protagonistas sin que aparecieran ni sus nombres ni sus rostros para evitar ponerles en peligro.

Hasta ahora, se han utilizado métodos como difuminar la cara o grabarlos en la sombra. Pero France optó por utilizar la misma tecnología que se utiliza para el deepfake para poder transmitir de una manera más eficaz las emociones de los protagonistas que cuentan sus historias de persecución. En el documental, las voces y los rostros de los supervivientes han sido reemplazados por activistas de los derechos LGTBI+, en su mayoría residentes en Estados Unidos.

Mantener la esencia con el 'deepfake'

Ryan Laney, el experto en efectos visuales de Welcome to Chechenya, dijo para Recode que el objetivo de utilizar esta tecnología basada en el machine learning era crear una prótesis digital. Con ella, se busca mantener el movimiento, la emoción y la esencia de la persona que está hablando a la cámara.

Laney también subrayó que, por el uso que se le está dando a esta técnica, no sería correcto utilizar el término deepfake, que está relacionado con la práctica ilícita. En el caso del documental de HBO, por el contrario, las imágenes han sido grabadas y editadas con el consentimiento de los activistas que han cedido su rostro.

Además, Laney puso de relieve que los espectadores saben en todo momento que las caras han sido modificadas con inteligencia artificial. Y este no es el caso de los deepfakes. Un estudio reciente reveló que la mayoría de vídeos de estas características están relacionados con la industria pornográfica. También con las grabaciones de políticos atribuyéndoles declaraciones que no han dicho. En este caso, el reto es evitar estas campañas de desinformación y frenar las noticias falsas en redes sociales.

Cambiar el rostro para garantizar la seguridad

El caso de Welcome to Chechenya puede cambiar la manera en la que hemos visto los deepfakes hasta ahora, aunque algunos expertos apuntan a que esto solo es el principio. Sorprendentemente, el potencial por el que se está apostando responde a un objetivo contrario al que se ha relacionado hasta ahora con esta práctica ilícita. Algunas empresas están utilizando el machine learning para garantizar el anonimato y la seguridad de los usuarios en la red. Todo lo contrario de lo que hemos visto en los vídeos pornográficos y que fomentan las fake news.

Es el caso de Teus Media, que quiere garantizar el anonimato de las fuentes periodísticas. La explicación es la misma que en el caso del documental de HBO: evitar las medidas que se han tomado hasta ahora para conseguir este fin, como difuminar la cara. Con inteligencia artificial, esta empresa liderada también por el experto en artes visuales quiere aumentar la protección para aquellas personas que dan información que puede ponerles en peligro. Sobre todo en el caso de la televisión, esta práctica puede ser acertada para transmitir las emociones y empatizar más fácilmente con la fuente periodística.

El otro nicho en el que el uso de los "deepafakes lícitos" pueden tener lugar es para evitar el robo de identidad. La empresa D-ID ofrece en este sentido una solución para evitar la identificación de la identidad en imágenes sacados de datos biométricos. Tanto empresas como particulares almacenan imágenes de circuito cerrado y, antes de que puedan ser utilizadas, la startup ofrece cambiar el rostro de la persona para proteger su identidad.

La tecnología de la compañía funciona en distintos niveles. En un vídeo, D-ID muestra cómo va cambiando progresivamente la cara del usuario y, finalmente, el rostro se parece pero no se podría saber la identidad. Ni siquiera los mecanismos de reconocimiento facial actuales podrían dar detalles de la persona que aparece en la imagen.

Una mayor conciencia ligada al deepfake

La estrategia de la empresa cobra especial relevancia en un momento en el que muchos gobiernos alrededor del mundo, así como empresas privadas, han aumentado el uso de la vigilancia por la pandemia del coronavirus. Gil Perry, fundador de D-ID explicó para TechChrunch que las autoridades están utilizando la nueva normalidad "como una excusa para la vigilancia masiva". Se refiere a casos como el de Israel, que ha puesto en funcionamiento una app para seguir y monitorear a los ciudadanos y así poder determinar si han estado en contacto con personas contagiadas con COVID-19.

Además de esta situación excepcional por la pandemia mundial, empresas como la de reconocimiento facial Clearview AI han ido recopilando información personal a través de la plataforma. Por casos como este y por muchos otras experiencias, Perry indicó que la sociedad está mucha más concienciada en lo que a protección de datos se refiere.

A pesar del potencial de este tipo de empresas, este modelo de negocio se encuentra todavía en etapas muy tempranas y su uso generalizado por parte de empresas sigue siendo una meta complicada en un corto plazo. Los próximos desarrollos de la tecnología serán clave para marcar el futuro de estas compañías que han dado la vuelta a una de las mayores amenazas en las redes, el deepfake, para convertirlo en una herramienta de protección para los ciudadanos.