La moderación de contenido en redes sociales es una tarea desagradable y que todavía requiere de un gran despliegue humano. Facebook ha sido una de las plataformas más criticadas por sus prácticas relacionadas a material inapropiado, y está otra vez en el centro de la escena por motivos poco felices.
Trabajadores subcontratados en Europa para realizar la tarea se quejan de que la compañía de Mark Zuckerberg no los protege. Isabella Plunkett, una moderadora de la red social, brindó su testimonio a un comité parlamentario irlandés sobre las malas condiciones laborales que impone Facebook.
Según lo apuntado por Engadget, Plunkett trabaja para Covalen, una firma a través de la cual Facebook terceriza la moderación de contenido en Irlanda. La joven manifestó que los trabajadores no tienen acceso adecuado a recursos de salud mental, y que no les reconocen beneficios como la cobertura de días de ausencia por enfermedad o el trabajo desde casa.
"El contenido es terrible y afectaría a cualquiera. Nadie puede estar bien si se la pasa observando violencia gráfica de 7 a 8 horas por día", aseveró. Además, Plunkett explicó que los acuerdos de confidencialidad que Facebook les obliga a firmar son tan restrictivos que ni siquiera pueden contarles a sus familiares a qué se dedican.
Los moderadores de contenido dedican jornadas laborales extenuantes a la revisión de material violento y perturbador que es subido a la plataforma. Pero a pesar de la importancia de su tarea, no reciben el reconocimiento de Facebook y sufren las consecuencias de la continua exposición a publicaciones tóxicas.
El drama de los moderadores de contenido subcontratados por Facebook
"Hay miles de moderadores de contenido de Facebook en todo el mundo, y más de mil están en Irlanda. Facebook no podría existir como plataforma sin ellos, y sin embargo no los contrata directamente y les paga mal", expresó Plunkett.
La red social ya fue motivo de polémica por situaciones de este tipo en otras partes del mundo. El año pasado, por ejemplo, aceptó pagar 52 millones de dólares a los moderadores con base en Estados Unidos que sufrieron estrés postraumático.
En su momento la empresa se comprometió a incorporar más herramientas basadas en Inteligencia Artificial que permitan agilizar el proceso de revisión. Sin embargo, falta mucho todavía para que la tarea de moderación de contenido pueda realizarse sin supervisión humana.
Por otra parte, Facebook ha tomado medidas para tratar de suavizar el impacto en los moderadores. Algunas de las herramientas permiten ver los vídeos en blanco y negro, silenciar el sonido, o detectar los momentos más importantes, para limitar la exposición al material violento.
Los moderadores consideran que la red social puede hacer mucho más para protegerlos y contenerlos. Por lo pronto, un vocero de Facebook dijo que quieren solucionar el problema y que los moderadores están capacitados según sus estándares comunitarios. "Es un tema importante y estamos comprometidos a hacerlo bien", aseguró.