Pornhub, el sitio de vídeos para adultos más visitado del mundo, ha anunciado nuevas medidas para prevenir el contenido ilegal en su plataforma. La compañía asegura que adoptará un sistema de verificación biométrica para sus usuarios. Además, realizará cambios en el equipo de moderación, ampliando el personal y ofreciendo apoyo psicológico.
Un artículo de The New York Times expuso el año pasado que la plataforma podía alojar contenido ilegal, como pornografía infantil y violaciones. Como consecuencia de ello, Pornhub ha quedado envuelta en una fuerte polémica. Las primeras medidas de la compañía han consistido en eliminar todo el contenido subido por cuentas no verificadas.
Si bien desde ese momento ha dejado de estar disponible más del 60% del material subido, la medida había quedado a mitad de camino. De acuerdo a lo informado por Motherboard, los usuarios solo necesitaban cargar una selfie con un papel escrito a mano con la palabra "Pornhub" para conseguir una verificación.
Estas verificaciones les permitían a los usuarios ser "elegibles" para unirse al programa ModelHub de monetización de vídeos. Además, claro, de cargar contenidos tras las nuevas restricciones. No obstante, desde la compañía reconocieron que el proceso de verificación necesitaba cambios.
Ahora, casi dos meses después del inicio del escándalo, Pornhub ha presentado su nuevo sistema. Según recoge Vice, la verificación de las cuentas se realizará tras un nuevo método de validación de identidad. Para ello se han asociado a Yoti, una compañía especializada en el tema.
Los usuarios de Pornhub interesados en la validación deberán cargar mediante Yoti "una foto actual y un documento de identificación aprobado por el gobierno". De esta forma, esta compañía comprobará la validez de la documentación ingresada utilizando "tecnología biométrica segura".
Los cambios en Pornhub también llegan al equipo de moderación
En una declaración, Pornhub asegura que ampliará el equipo de moderación y que lo entrenará "más rigurosamente". "Los moderadores de contenido también recibirán una formación exhaustiva adicional para identificar material y pruebas potencialmente ilegales", han manifestado.
Los responsables de la plataforma también dicen que los moderadores de contenidos recibirán apoyo especializado para que puedan seguir adelante con el "trabajo crítico que realizan". Es decir, se les brindará acceso a consultas terapéuticas y servicios de bienestar.