No es ningún secreto que Mark Zuckerberg procura que las conversaciones dentro de su red social se mantengan positivas. Como parte de los esfuerzos de Facebook por combatir el spam, los fraudes y los discursos de odio, diariamente cierra más de un millón de cuentas, indicó su jefe de seguridad, Alex Stamos a la CNBC.

No obstante, entre sus más de dos billones de usuarios en todo el mundo aún hay muchas cuentas que logran evadir las medidas de la red social. Por otro lado, también remueve algunos posts y vídeos que luego se da cuenta que no estaban infringiendo las normas, explicó Stamos durante un evento en San Francisco, la noche del miércoles.

Cuando estás lidiando con millones y millones de interacciones, no puedes crear estas reglas e implementarlas sin (quitar) algunos falsos positivos.

Facebook ha sido muy criticada por quienes consideran que sus políticas para censurar contenido son muy arbitrarias, lo que dificulta diferenciar qué tipo de actividades acepta y cuáles no. Para Stamos, es un reto a nivel técnico más que una cuestión de las normas en sí.

Este año, diversos líderes europeos reprendieron a la red social por haber permitido que los terroristas la usaran para reclutar gente y planear ataques, mientras que el año (en el marco de las elecciones presidenciales) pasado una comisión del Senado estadounidense demandó que revelaran cuáles eran sus políticas para quitar historias falsas tras acusaciones de que estaba quitando posts de políticos conservadores de forma arbitraria.

Defensores de la libertad de expresión en línea también han criticado duramente la labor de Facebook. La directora de ciberseguridad de la Fundación Electronic Frontier, Eva Galperin, señaló la falta de transparencia en sus políticas en un evento de Enigma Interviews, patrocinado por la Asociación de Sistemas de Cómputo Avanzado (USENIX, por sus siglas en inglés), en el que también participó Stamos.

Las reglas no se aplican en todos los ámbitos, reflejan prejuicios.

En defensa de Facebook, Stamos aseguró que no es un grupo de gente blanca el que decide qué posts quitar, sino que es el volumen de conversaciones negativas lo que causa que exista un mayor número de falsos positivos, que puede ser gente que simplemente estaba hablando sobre el tema y no necesariamente promoviéndolo.

Por su parte, el CEO de Facebook aseguró que contratarán a 3,000 personas más para monitorear y quitar el contenido ofensivo. Además, Stamos señaló que deben lidiar con las leyes de cada uno de los 100 países en los que operan, de los cuales algunas utilizan las leyes de expresión para suprimir a la disidencia política.

La definición de discurso de odio en algunos países es problemática.

Por eso es que a parte de expandir el equipo que rastrea a actores potencialmente amenazantes, Facebook utiliza software con inteligencia artificial para determinar si alguien que intenta iniciar sesión es un usuario legítimo, pues hay estafadores que intentan crear miles de cuentas al mismo tiempo.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: