Después de una expectativa creciente a lo largo del fin de semana, este lunes salieron a la luz los Facebook Papers. Se trata de una serie de artículos periodísticos que han sido desarrollados en simultáneo por varios medios informativos estadounidenses. Los mismos se basan en los documentos filtrados por Frances Haugen, la exempleada de Facebook que declaró recientemente frente al Senado de Estados Unidos.

Los Facebook Papers exponen —y critican— el accionar de la red social al lidiar con una muy amplia variedad de situaciones. Desde las fallas al detectar y erradicar el discurso de odio en ciertos países e idiomas, hasta el tráfico de personas, pasando por la desinformación y la censura, entre muchas otras cuestiones, las investigaciones ponen principalmente la mira sobre Mark Zuckerberg y su modelo de gestión. Y también ponen sobre el tapete cómo, en la mayoría de los casos, son los propios empleados de la compañía quienes advierten sobre las falencias en la red social, pero son ignorados.

A continuación les ofrecemos una recopilación con los puntos más importantes que se han revelado en las últimas horas, en la que seguramente sea la peor crisis de Facebook hasta la fecha.

Todo pasa por las manos de Mark Zuckerberg

Uno de los artículos publicados por The Washington Post que forma parte de los Facebook Papers pone la lupa sobre la injerencia de Mark Zuckerberg en la toma de decisiones controversiales. Más allá de las situaciones lógicas que deben contar con el aval del CEO de una compañía, el fundador de Facebook habría dado la última palabra en algunas determinaciones que serían —cuanto menos— discutibles.

El artículo se enfoca primeramente en la decisión de Facebook de aplicar censura a las publicaciones contrarias a los gobernantes de Vietnam. Bajo la amenaza de ser bloqueados en el país, Zuckerberg habría decidido personalmente obedecer lo dispuesto por las autoridades desde Hanoi.

Al considerar si permitir una mayor censura en Vietnam, dijo un ex empleado, la línea sobre la libertad de expresión que Zuckerberg trazó en la arena parecía cambiar constantemente. Advertido de que atender a un régimen represivo podría dañar la reputación global de Facebook, [...] Zuckerberg argumentó que desconectarse por completo en Vietnam causaría un daño aún mayor a la libertad de expresión en el país.

The Washington Post
Mark Zuckerberg Facebook | Facebook Papers

Mark Zuckerberg también habría impedido que el equipo de WhatsApp desarrollara un centro de información para votantes en español, en la previa de las elecciones presidenciales de Estados Unidos. Según los Facebook Papers, el CEO de la red social objetaba la idea por considerar que no era "políticamente neutral" y porque podría considerarse partidaria.

Mientras que en el comienzo de la pandemia de la COVID-19, Zuckerberg habría rechazado una recomendación de los investigadores de la empresa para limitar la viralización de informaciones falsas. La propuesta era limitar el empuje que el algoritmo les daba a los contenidos compartidos en múltiples oportunidades, porque estaba probado que el contenido "recompartido" en serie solía estar relacionado con desinformación. De hecho, las primeras pruebas demostraron que era posible reducir en un 38% las noticias falsas sobre el Coronavirus. Sin embargo, Zuckerberg se habría opuesto porque cambiar el algoritmo podría implicar una concesión sobre MSI (Meaningful Social Interaction), la principal métrica utilizada por Facebook.

Falta de moderadores locales y una IA deficiente para evitar el discurso de odio

La falta de acción para detectar y erradicar el discurso de odio es recurrente entre los muchos artículos periodísticos de los Facebook Papers. Según Reuters, la red social no ha hecho lo suficiente para evitar situaciones que derivan en actos de violencia en países en desarrollo.

Los documentos internos de la empresa [...] muestran que Facebook ha sabido que no ha contratado suficientes trabajadores que posean las habilidades lingüísticas y el conocimiento de los eventos locales necesarios para identificar publicaciones objetables de usuarios en varios países en desarrollo.

Reuters

Según se publica en los Facebook Papers, la inteligencia artificial que Facebook utiliza para erradicar el discurso de odio aún no está optimizada en muchos idiomas. Esto ha llevado a la viralización de contenido violento en países como Myanmar, Etiopía, Irán, Pakistán y Afganistán.

La falta de acción para detener la distribución del discurso de odio es un tema recurrente en los artículos que se publicaron este lunes. Los documentos internos revelan que solo el 5% del mismo se ha eliminado de Facebook; cuando Zuckerberg dijo en 2020 ante el Congreso de Estados Unidos que la compañía remueve "el 94% del discurso de odio que encuentra".

Facebook y las dudas internas sobre sus funciones clave

You've been zucked.London Street art Shoreditch.Shot on film, Kodak Portra 800, Nikon FM2n
Foto por Annie Spratt en Unsplash

Otro artículo muy interesante es de The New York Times. El mismo expone cómo Facebook tendría grandes dudas sobre las funciones que le han permitido ser lo que es en la actualidad: los botones de Me Gusta y Compartir. Pero esto no se limita solamente a Facebook como red social, sino que también afecta a Instagram.

El reporte señala que Facebook investigó qué ocurriría si eliminara el botón Me Gusta de las publicaciones en Instagram; el resultado fue una caída en las interacciones con los posts y los anuncios publicitarios. El estudio se generó al conocer que las reacciones provocaban estrés y ansiedad en los usuarios más jóvenes de la plataforma. Y Zuckerberg y compañía habrían optado simplemente por lanzar un test limitado para "crear una narrativa de prensa positiva" en torno a Instagram.

Pero más allá de dicho caso en particular, los cuestionamientos internos sobre cómo afectan las funciones clave de Facebook a los usuarios habría sido tema de largo debate en la empresa.

Lo que encontraron los investigadores a menudo distaba mucho de ser positivo. Una y otra vez, determinaron que las personas hacían un mal uso de las características clave o que esas características amplificaban el contenido tóxico, entre otros efectos. En un memorando interno de agosto de 2019, varios investigadores dijeron que era la "mecánica central del producto'' de Facebook, es decir, los conceptos básicos de cómo funcionaba el producto, lo que había permitido que la desinformación y el discurso de odio florecieran en el sitio.

“La mecánica de nuestra plataforma no es neutral”, concluyeron.

The New York Times

El tráfico de personas es un problema gravísimo que sigue acechando a Facebook e Instagram

Facebook todavía no ha podido darle una respuesta completamente efectiva al tráfico de personas, según indica CNN en su aporte a los Facebook Papers. El citado medio menciona a Arabia Saudita, donde se utilizan perfiles de Facebook e Instagram para comprar y vender a mujeres para servidumbre doméstica.

Al parecer, Facebook conoce estas prácticas al menos desde 2018. E incluso se menciona que, en 2019, Apple habría amenazado a Mark Zuckerberg y compañía con retirar sus aplicaciones de la App Store si no tomaban medidas.

Internamente, los empleados de Facebook se apresuraron a eliminar el contenido problemático y hacer cambios en las políticas de emergencia para evitar lo que describieron como una consecuencia "potencialmente grave" para la empresa.

CNN

En los documentos de la red social se menciona claramente qué condiciones de vida afrontan las mujeres expuestas a esta situación. Desde privación de la comida y el dinero hasta el abuso físico y sexual, más la confiscación de sus documentos para que no puedan escapar. Sin embargo, internamente reconocen en Facebook que tienen "lagunas" en sus sistemas de detección; e incluso detallan cómo se utilizan las plataformas para reclutar, vender y comprar "sirvientes domésticas".

De hecho, CNN manifiesta que ha podido hallar perfiles que continúan con esta actividad, utilizando las palabras claves que se detallan en la información filtrada. Esto significa que, más allá del esfuerzo que haga Facebook por combatir este grave problema, aún no ha desarrollado una solución que sea realmente efectiva.

En otro pasaje del artículo se menciona que una investigación interna descubrió una red transnacional de tráfico de personas. La misma utilizaba perfiles falsos de Facebook e Instagram para captar víctimas; y se comunicaban con ellas a través de WhatsApp y Messenger. Además, se registraron gastos publicitarios por más de 150 mil dólares para colocar anuncios en Facebook relacionados con esta actividad ilegal.

Una caída sostenida entre los adolescentes y jóvenes adultos

Facebook | Facebook Papers
Foto por Aedrian en Unsplash

Los Facebook Papers también revelan cómo habrían caído las métricas de participación entre los más jóvenes. Un reporte de Bloomberg sobre el tema indica que, solo en Estados Unidos, el tiempo dispensado por adolescentes en Facebook cayó un 16% interanual. En tanto que el bajón fue del 5% en jóvenes adultos.

El otro dato que provoca preocupación en la compañía es que cada vez se registran menos adolescentes. Incluso se menciona que los jóvenes demoran cada vez más en abrir una cuenta en Facebook. Así como los nacidos antes del 2000 abrían sus cuentas al promediar los 19 o 20 años, los nacidos después de dicho año planea sumarse a la plataforma recién a los 24 o 25, si es que siquiera la utilizan.

Pero también el artículo indica que Facebook habría "inflado" los reportes sobre el número de usuarios en los grupos de edad más jóvenes. Para ello habría contabilizado las cuentas múltiples que corresponden a una misma persona, y con ello habría generado información engañosa para anunciantes e inversores.

Facebook va de un dolor de cabeza a otro

Los Facebook Papers han llegado para quedarse. La lista de artículos es bastante extensa, pero merece ser revisada. Protocol ha creado una lista con todo el material que se ha publicado para comprender mejor de qué se trata esta historia. Si bien es cierto que varias de las publicaciones tocan temas comunes, los datos expuestos son realmente alarmantes.

Facebook, en tanto, ha tratado de salir al cruce de las publicaciones con varias declaraciones. Ya la semana pasada se había publicado un hilo en Twitter abriendo el paraguas de cara a lo que se vendría. La red social sostiene que es una caracterización errónea en base a documentos parciales que no reflejan la realidad interna de la compañía.

Cualquiera que sea la situación, queda claro que los Facebook Papers seguirán dejando mucha tela para cortar.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: