La gran polémica de Facebook continúa. Un nuevo artículo publicado por The Wall Street Journal destaca que Facebook conoce que su IA no es capaz de eliminar ni una mínima parte del contenido de odio o violencia. En concreto, porque los algoritmos no pueden detectar o diferenciar una serie de contenidos, como vídeos grabados en primera persona, discursos racistas, accidentes automovilísticos o, incluso, peleas de gallos.

Facebook, con su objetivo de minimizar los daños, ha confirmado que la red social ha conseguido disminuir el discurso de odio en casi un 50% durante los últimos tres años. Según Guy Rosen, vicepresidente de integridad de Facebook, gran parte de esta caída ha sido gracias a los "sistemas de IA mejorados y ampliados".

La documentación filtrada por el periódico estadounidense, sin embargo, desvela que Facebook prescindió de parte del equipo humano encargado de detectar las noticias falsas, contenido violento o discursos de odio. En cambio, realizó una serie de acciones que hicieron disminuir el número de cotenido y lo atribuyeron al uso de inteligencia artificial. No obstante, algunos empleados de Facebook estiman que el uso de estas tecnologías apenas elimina entre el 3 y el 5% del contenido que incita al odio.

Ahora bien, ¿qué pasa con el resto de contenido que claramente incumple las reglas de la red social, pero que la IA no es capaz de detectar correctamente? Simplemente se muestra con menos frecuencia, pero no se elimina. Facebook lo confirma.

La IA de Facebook muestra con menos frecuencia el contenido sospechoso

Rosen, respondiendo a las declaraciones de WSJ, asegura que "centrarse solo en la eliminación de contenido es la forma incorrecta de ver cómo Facebook lucha contra el discurso de odio". Destaca, además, que su tecnología puede reducir la distribución de aquel contenido sospechoso. Pero, ¿es suficiente?

Tenemos un umbral alto para eliminar contenido automáticamente. Si no lo hiciéramos, nos arriesgaríamos a cometer más errores en contenido que parece discurso de odio pero no lo es, dañando a las mismas personas que estamos tratando de proteger, como las que describen experiencias con el discurso de odio o lo condenan.

Guy Rosen, vicepresidente de integridad de Facebook.

WSJ alega que hay contenido que incluso la IA de Facebook no es capaz de diferenciar y lo etiqueta incorrectamente. Por ejemplo, el tiroteo de Christchurch, en Nueva Zelanda, fue grabado en directo por el perpetrador en primer persona. La IA detectó algunos vídeos publicados por diferentes usuarios como "juegos de Paintball" o "lavado de coches", haciendo que se mostrara en el feed de los internautas.