La moderación de contenido en Facebook es un tema siempre sensible y en las últimas horas ha sumado una nueva polémica. Según publica The Verge, la red social sufrió un fallo que provocó que muchas publicaciones que en circunstancias normales no superarían el filtro de los moderadores, como las noticias falsas y el contenido violento, se muestren al público con normalidad.

La magnitud del inconveniente fue tal que pasaron seis meses desde que se lo encontró hasta que se lo pudo solucionar. El citado medio indica que los ingenieros de Meta detectaron el problema en octubre, pero recién lo pudieron reparar el pasado 11 de marzo.

De acuerdo con la investigación interna de Facebook, el bug impactó sobre el sistema que rankea las publicaciones en el feed principal. En lugar de suprimir la promoción a publicaciones que los moderadores ya habían marcado como inapropiadas, el fallo provocó que se las mostrara con normalidad. Incluso se llegó a registrar un incremento del 30% en la visualización de dichos posts a nivel mundial.

Pero lo realmente llamativo es que este problema habría estado presente en los sistemas de Facebook desde mucho tiempo antes que se lo encontrara. Al parecer, el fallo data de 2019 pero pasó desapercibido ante los ojos de los desarrolladores hasta que comenzó a provocar contratiempos visibles.

Otro dato del reporte marca que el incremento en la visualización de contenido inapropiado no estuvo limitado a las noticias falsas. También impactó sobre la tecnología encargada de detectar fotos y vídeos que contenían violencia gráfica y desnudez; y provocó que el bloqueo a las publicaciones de medios rusos tras la invasión a Ucrania fuese menos efectivo de lo que debía.

La moderación de contenido de Facebook se vio afectada por un bug

Foto por Glen Carrie en Unsplash

El informe de The Verge cita a un portavoz de Facebook, quien reconoció el fallo y aseguró que el mismo ya ha sido reparado. Según el vocero en cuestión, el bug no ha tenido un impacto "significativo y a largo plazo" en las estadísticas que maneja la red social fundada por Mark Zuckerberg.

Sin embargo, este inconveniente ha reavivado el debate con respecto a los métodos y sistemas que Facebook usa para degradar la visibilidad de las publicaciones que considera inapropiadas. Desde hace tiempo, la plataforma presume que cada vez cuenta con más tecnología para combatir la desinformación; sin embargo, también ha sido motivo de fuertes críticas por las graves fallas que ha evidenciado en los últimos años al lidiar con noticias falsas y contenidos maliciosos relacionados con la política (Trump y las Elecciones de Estados Unidos, por ejemplo), la salud (la COVID-19 y los antivacunas) y otros muchos temas sensibles que salieron a la luz con los Facebook Papers.

También debemos recordar que la moderación de contenido que se realiza manualmente en la red social corre por cuenta de trabajadores tercerizados; los mismos que en los últimos años han pedido a gritos que les mejoren sus condiciones laborales. Y esas quejas tampoco parecen haber logrado demasiado, independientemente del compromiso de Meta de inclinarse más por la inteligencia artificial para estas labores.

Es cierto que el caso que abordamos en estas líneas no parece merecer que se lo califique como negligente o malintencionado. Al fin y al cabo, no existe compañía que no haya lidiado alguna vez con un bug que afecte sus servicios. Pero también es una realidad que con el caudal de información que Facebook maneja, y con los recursos técnicos y económicos que dispone, debería estar mejor preparado que nadie para atender más rápido una falencia de este tipo.