Era el que faltaba y ha llegado para cerrar el círculo. Después de que Pornhub y Twitter iniciaran la lucha contra los vídeos pornográficos falsos, Reddit se ha unido al grupo y ha afirmado que prohibirá la publicación de imágenes sexuales sin el consentimiento de la persona. La medida es simbólica, ya que los llamados deepfakes se habían iniciado en esta plataforma y la comunidad en la que se compartía el contenido contaba con más de 90.000 miembros.

Los vídeos falsos creados con inteligencia artificial permiten intercambiar el rostro de una actriz porno por la de una celebridad. Hasta ahora, la actriz Gal Gadot y la cantante Taylor Swift han sido algunas de las mujeres que han sido víctimas de estas prácticas. En Reddit, se convirtió en tendencia y la persona que empezó a desarrollarlos y que ha dado nombre a los vídeos, deepfake, creó la aplicación especialmente diseñada para crear este contenido falso, FakeApp.

Pornhub fue la primera compañía en prohibir estos vídeos, así com Gyfcat y finalmente Twitter. A pesar de los esfuerzos, la comunidad en Reddit con miles de miembros seguía existiendo, hasta hoy. La plataforma ha considerado este contenido como "pornografía involuntaria" y ha actualizado sus reglas para prohibir la publicación de fotos o vídeos de personas desnudas o realizando actos sexuales sin el permiso de la persona. "Reddit se esfuerza por ser una plataforma abierta y acogedora para todos al confiar en nuestros usuarios para mantener un entorno que fomente una conversación genuina", afirmó la compañía en un comunicado, y añadió:

A partir del 7 de febrero de 2018, hemos realizado dos actualizaciones a nuestra política de todo el sitio con respecto a la pornografía involuntaria y contenido sexual o sugerente que involucra a menores. Estas políticas se combinaron previamente en una sola regla; ahora serán divididos en dos distintos. Las comunidades se centraron en este contenido y los usuarios que publiquen dicho contenido serán excluidos del sitio.

La comunidad principal en la que se divulgaban los deepfakes ha sido eliminada, así como otras más pequeñas donde también se publicaron vídeos falsos. El subreddit CelebFakes también estaba centrado en imágenes pornográficas pero estas eran editadas con Photoshop y no con inteligencia artificial. Reddit también ha eliminado esta comunidad. Sin embargo, el grupo centrado en la aplicación FakeApp sigue estando abierto hasta el momento de la publicación de este artículo.

Reddit llevará a cabo un análisis del contenido para identificar otros vídeos falsos aunque ha pedido a los propios usuarios que ayuden a llevar a cabo esta tarea: "Los informes propios son siempre la mejor manera de informarnos. Si ve contenido involuntario suyo, denúncielo. Para otras situaciones, tomamos caso por caso y tenemos en cuenta el contexto".

En el pasado, la plataforma prohibió los vídeos o imágenes sexuales en donde aparecieran menores de edad y este ha sido su último esfuerzo por llevar un mayor control del contenido que difunden los usuarios. En el caso de los deepfakes, la polémica está servida porque no existe una confirmación sobre la ilegalidad de estas prácticas. Al describirse como vídeos falsos no se consideran actos difamatorios aunque las condenas por parte de las víctimas de los deepfakes y otros usuarios han sido suficientes para que se intente poner fin a la divulgación de este contenido. Por el momento, los esfuerzos están dando sus frutos.