Ya sea por el caso Russiagate o el escándalo de Cambridge Analytica, Facebook sigue en la mira de los usuarios y la justicia. Como parte de sus esfuerzos por recuperar la confianza de la gente, la empresa de Mark Zuckerberg ha compartido su primer reporte sobre remoción de contenido de la plataforma este martes 15 de mayo.

El informe abarca el periodo de octubre de 2017 a marzo de 2018, y está enfocado en las publicaciones de lo que Facebook considera como violencia gráfica, desnudez en adultos y actividad sexual, propaganda terrorista, discursos de odio, spam y cuentas falsas.

De acuerdo con Facebook, con este reporte han buscado dar respuesta a estas cuatro preguntas: ¿qué tan prevalentes son las infracciones a las normas de la red social?, ¿sobre cuánto contenido toman acción?, ¿cuánto contenido infractor encuentran antes de que los usuarios lo denuncien? y ¿qué tan rápido toman medidas contra dichas violaciones?

A través del newsroom de la red social, Guy Rosen, vicepresidente de producto de Facebook, compartió los resultados del primer trimestre de 2018:

Cuentas falsas y spam

  • 837 millones de mensajes spam fueron eliminados, casi todos detectados antes de que fueran reportados por los usuarios.
  • Alrededor de 583 millones de cuentas falsas fueron desactivadas, la mayoría apenas unos minutos después de que fueran registradas.
  • Entre 3 y 4% de las cuentas activas durante el período analizado eran falsas.

Otro tipo de contenido inapropiado

  • 21 millones de publicaciones de desnudos de adultos o material pornográfico fueron eliminadas.
  • 96% del contenido inapropiado fue detectado y marcado antes de que fuera reportado.
  • De cada 10.000 publicaciones visualizadas, entre 6 y 9 incluían material que infringía las normas.
  • Cerca de 3.5 millones de publicaciones con contenido violento, de las cuales un 86% fue identificado por la tecnología de la red social antes de ser reportadas, fueron bajadas o les colocaron advertencias.
  • 2.5 millones de artículos con discurso de odio fueron eliminados, un 38% de los cuales fue identificado por su IA.

Pese a estos avances, Facebook admite que en casos como la violencia gráfica o los discursos de odio, la tecnología de la plataforma aún no es lo suficientemente eficaz y requiere de la participación de equipos humanos de revisión.

En comparación con el último trimestre, el porcentaje de contenido inapropiado aumentó pese a las mejoras en la inteligencia artificial de Facebook para detectar este tipo de publicaciones en el primer trimestre de 2018. Según la plataforma, el aumento probablemente se debió a un mayor volumen de contenido compartido en la red social.

En contraparte, la empresa de Mark Zuckerberg tomó medidas sobre un total de 3.4 millones de contenidos inapropiados en el primer trimestre de 2018. Eso representa un aumento de 1.2 millones de contenidos en el cuarto trimestre de 2017.

"Este aumento se debe principalmente a las mejoras en nuestra tecnología de detección, que incluyen el uso de la coincidencia de fotografías para cubrir fotos de advertencias que coinciden con las que marcamos previamente como molestas. Estas acciones fueron responsables de alrededor del 70% del aumento en Q1", concluyó Facebook.