Deepfake de Gal Gadot

Deepfake

La nueva moda para los amantes del porno es cambiar el rostro de las actrices por el de celebridades como Taylor Swift, Gal Gadot o la actriz de Juego de Tronos Maisie Williams. Los llamados deepfakes por el usuario de Reddit que lo popularizó se basan en utilizar la inteligencia artificial para conseguir que estos cambios sean lo más reales posibles. Los resultados han dado sus frutos pero, en un intento por evitar estas prácticas, Pornhub ha anunciado que prohibirá estos vídeos falsos en su plataforma.

Las personas que han sido testigos de cómo se han popularizado los vídeos editados con aprendizaje automático acudieron a la página web pornográfica con más de 75 millones de visitas diarias para acabar con el maluso de la tecnología. Como respuesta, Pornhub ha afirmado que los deepfakes se considera porno no consentido y que vetará este tipo de contenido, informó Motherboard.

"No toleramos ningún contenido no consentido en el sitio y eliminamos todo dicho contenido tan pronto como nos enteramos", señaló la página web de pornografía en un correo electrónico, y añadió:

> El contenido no consentido viola directamente nuestras Condiciones del Servicio y se refiere a contenido como porno de venganza, deepfakes o cualquier cosa publicada sin el consentimiento o permiso de una persona.

Esta prohibición hace referencia directamente al cambio de rostro (face swap) que convierte a actrices, cantantes o personalidades en actrices porno. Pornhub ha dejado entender que su medida para acabar con estas prácticas se basará en que los usuarios marquen este tipo de contenido para que sea posteriormente eliminado. Sin embargo, la compañía no ha explicado con detalle cómo empezarán a luchar contra los deepfakes.

Por el momento, el reto también estará centrado en conseguir eliminar los vídeos que ya se encuentran en la página web. A pesar de que la prohibición puede ser efectiva para el contenido que se publique de ahora en adelante, Pornhub alberga millones de fotografías y vídeos que han sido retocados con inteligencia artificial, y podría ser difícil deshacerse de todos ellos de la noche a la mañana.

Estos vídeos todavía pueden encontrarse en las búsquedas bajo nombres como deepfakes y el nombre de celebridades que han sido víctimas de estas prácticas como Gal Gadot. La actriz protagonista de Wonder Woman se convirtió en el personaje principal de un vídeo porno, el cual ha sido perfectamente editado con aprendizaje automático para que se note la diferencia lo menos posible.

FakeApp

La utilización de la tecnología para intercambiar los rostros en vídeos pornográficos ha ganado tantos adeptos que se ha creado una aplicación especialmente diseñada para editar el contenido. El usuario deepfakeapp lanzó esta idea en Reddit y creó FakeApp.

La aplicación permite que las personas que no cuentan con los conocimientos necesarios para editar contenido con inteligencia artificial puedan unirse a este fenómeno. El proyecto se encuentra todavía en su etapa inicial pero deepfakeapp afirmó para Motherboard que pretende mejorarlo hasta que los usuarios puedan "simplemente seleccionar un vídeo en su ordenador, descargar una red neuronal correlacionada con una determinada cara de una biblioteca pública, y cambiar el vídeo con una cara diferente con tan solo presionar un botón".

FakeApp, el programa de moda para crear vídeos porno falsos con IA

A pesar de la fama que ha adquirido esta aplicación y el método, se ha alertado sobre sus consecuencias, como casos de porno de venganza, en los que se puede añadir fotografías de personas en vídeos pornográficos.

Pornhub ya ha decidido su bando y se ha puesto del lado de las víctimas de los deepfakes. La prohibición podría ir más allá y, al igual que se toman cada vez más medidas para evitar prácticas como el porno de venganza, la medida de la página web podría ser la primera de muchas para frenar esta nueva moda.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: