Facebook está en el punto de mira. La filtración de documentos realizada por Frances Haugen, una antigua empleada de la compañía, ha desatado un vendaval de críticas por parte de periodistas, abogados y la opinión pública. La compañía prioriza el beneficio económico a costa de las personas, sentenció Haugen.
Este lunes, una docena de medios estadounidenses que han tenido acceso en exclusiva a dichos documentos, los denominados «Facebook Papers», han publicado numerosos artículos que muestran cómo muchos de los esfuerzos de su personal por paliar los problemas de la red social son ignorados porque afectarían negativamente a su negocio publicitario. Haugen testificó diciendo que Facebook no quiere detener el daño que supuestamente produce la red social porque interfiere con las ganancias y crecimiento de ésta.
El fundador, Mark Zuckerberg, respondió a las acusaciones afectado y nervioso en la llamada con los accionistas de este lunes. Y se defendió alegando que "es un esfuerzo coordinado para seleccionar solo una parte de todos los documentos que circulan dentro de Facebook para mostrar una falsa imagen sobre la compañía". Sobre la mesa, también el evento apuntado para el 28 de octubre donde, y bajo todos los rumores, se hablaría del futuro de la compañía y su cambio de rumbo.
Colisión de pareceres entre empleados y líderes
De esta cobertura coordinada se extrae una idea clara: existe un gran distanciamiento entre los empleados y los altos ejecutivos de la empresa. La compañía subestima o directamente ignora problemas que está magnificando o que ha creado.
Son numerosos los ejemplos que muestran a empleados dando la voz de alarma sobre cómo Facebook se torna en altavoz del extremismo y la desinformación; incita a la violencia y radicaliza y polariza el discurso político. Los empleados reconocen cuando su plataforma se torna nociva para la sociedad, y suplican a los líderes que hagan algo más. Pero estos, según Haugen, los ignoran.
Los productos de Facebook «dañan a los niños, avivan la división y debilitan nuestra democracia», dijo la exempleada. «La empresa debería declararse en "bancarrota moral" si quiere salir adelante de todo esto».
El máximo responsable es Zuckerberg, quien es retratado en los documentos filtrados como un monarca absolutista dentro de una tecnológica que cotiza en bolsa y que da servicio a más de 3.000 millones de personas en todo el mundo. Posee la mayoría de las acciones con derecho a voto de la empresa, controla su consejo de administración y se rodea cada vez más de ejecutivos que no parecen cuestionar su ambiciosa visión de «conectar el mundo» a cualquier precio.
Facebook: ¿altavoz del mal?
El asalto al capitolio fue un punto de inflexión en la democracia estadounidense en el que Facebook desempeñó un papel protagonista. El auge del grupo ‘Stop the Steal’ (detened el robo en inglés) dentro de la red social desencadenó el vergonzoso incidente alentado por el expresidente Donald Trump.
Uno puede pensar que es obvio que las personas utilicen Facebook para conectar u organizar eventos de cualquier índole. Y que poco depende de la red social en sí el objetivo de estos. Es normal que personas y comunidades que compartan contenido con fines extremistas o que inciten a la violencia o la desinformación. Esto es cierto. Pero, según los documentos filtrados, el rol de Facebook no es el de un simple medio de difusión pasivo; sino un catalizador de odio. Antes del auge de las redes sociales era difícil propagar rápida y eficazmente mensajes como éstos. Y, también, porque la compañía ayuda mediante su algoritmo a que los grupos atraigan a más usuarios.
Baste un ejemplo: Facebook sustituyó los likes por reacciones relativas a sensaciones humanas como el amor, la risa o el enfado. Justamente, las publicaciones etiquetadas con sentimientos de enfado eran las más propensas a incluir contenido que iba en contra de los estándares como desinformación. Y la compañía da prioridad a mostrar este tipo de contenido en detrimento de las publicaciones que solo incluyen los likes como reacción. Es decir, el contenido de enfado, indignación y habitualmente pernicioso para la comunidad, no solo no se «esconde», sino que se prioriza en los feed de sus usuarios porque aumentan el tiempo de uso e interacciones en la aplicación.
Las métricas como religión
En Facebook e Instagram, el valor interno que da el algoritmo a cualquier publicación está determinado por la probabilidad de que el usuario reaccione a ésta. Cuanto mayor sea esa probabilidad, más opciones habrá de que se muestre en su feed. ¿Cuál es el contenido más propenso a ser compartido? Quejas, desinformación, enfados, llamadas a la violencia…
En 2018, el propio Zuckerberg señaló que los contenidos con más interacciones eran siempre los más cercanos a la línea de lo no permitido por la compañía.
La periodista de Atlantic, Adrienne LaFrance, habló con varios exempleados que describieron una cultura empresarial basada en las métricas extrema, incluso para los estándares de Silicon Valley.
"Los trabajadores de Facebook están sometidos a una enorme presión para demostrar cuantitativamente sus contribuciones individuales a los objetivos de crecimiento de la empresa", afirma en su artículo. "Los nuevos productos y funciones no se aprueban a menos que los empleados que los proponen demuestren cómo impulsarán la participación".
Esto ha fomentado una colisión interna que enfrenta directamente a su equipo de producto e ingeniería con el Equipo de Integridad, encargado de mitigar los daños que puede generar la plataforma en la sociedad.
La cuestión del algoritmo de Facebook
Los Facebook Papers dan a entender que la principal prioridad de la compañía es crecer y exprimir cada céntimo posible mediante sus algoritmos. Además, los esfuerzos de moderación son insuficientes para controlar todo el contenido; y en numerosas ocasiones no se realizan porque chocan directamente con sus intereses económicos.
Si el algoritmo tiende a expandir discursos nocivos, ¿por qué no eliminarlo y mostrar las publicaciones en orden cronológico para no dar prioridad a cierto contenido potencialmente nocivo? Uno podría pensar que no se realiza porque afectaría directamente al tiempo que pasan los usuarios en la red social. Pero, en realidad, Facebook ya probó a hacerlo y el experimento salió mal.
En 2018 se apagó el algoritmo que da prioridad a cierto contenido en el News Feed del 0,5% de los usuarios de la red social. Los resultados del experimento concluyeron que las interacciones con el contenido mostrado cayeron significativamente; y que el contenido de los grupos adoptó un rol todavía más prominente. Sorprendentemente, a Facebook le beneficiaba este cambio porque los usuarios tenían que dedicar más tiempo hasta encontrar algo que le interesase y, por ende, ver más anuncios.
Pero «apagar» el algoritmo, según los investigadores, ofrecía una peor experiencia en todos los ámbitos medibles.
Una solución no tan simple como cuentan
Los periodistas se han enfocado en describir los casos puntuales en los que ha fallado Facebook; y se ha descrito su peligrosa cultura de priorizar su crecimiento en lugar de hacer lo correcto. Es legítimo, y es la labor que tiene que ejercer la prensa. Sin embargo, sugerir que todos los problemas son consecuencia del mal hacer de una compañía malvada operada por malas personas es roza lo estúpido. Es una simplificación muy peligrosa. Esto es algo más. Moderar contenido es muy difícil, y lo es más aún cuando prácticamente todo el mundo está dentro de Facebook.
Con artículos así se aboga indirectamente a la censura; a que se modere más y mejor, dicen; e invitar a esperar que, algún día, a base de leyes y de ocultar el contenido que no gusta, Facebook haga las cosas bien. Pero, ¿qué es hacer las cosas bien? Porque la línea entre vigilar la desinformación y censurar puntos de vista independientes puede ser muy delgada si dejamos que la regulación y los algoritmos sean quiénes decidan.
¿Quién gestiona a quién en Facebook?
No podemos esperar, además, que una empresa, cuyo principal objetivo es el de generar riqueza atente contra sus propios negocios. Y, por otra parte, no podemos esperar tampoco, como Zuckerberg pide —interesadamente—, que las leyes impongan unos estándares de moderación que solo Google y Facebook pueden permitirse. En la llamada con los accionistas dijo que "deberíamos querer que todas las otras compañías de la industria realicen y logren los resultados que nosotros hemos logrado". Esta frase es peligrosa. Está rogando que se establezcan leyes que requieran una inversión que solo Facebook puede permitirse para ir en búsqueda de unos resultados que sólo ellos creen haber obtenido.
¿Queremos de verdad que los gobiernos decidan cómo deben funcionar las redes sociales? Porque Facebook está causando problemas en nuestra sociedad; pero puede que el remedio que algunos reclaman sea peor que la enfermedad que queremos, y debemos, sanar.
El conflicto no solo radica de la ambición desmedida de Zuckerberg; ni de su obsesión por las métricas o de los insuficientes esfuerzos que se destinan a moderar contenido, sobre todo en los países en vías de desarrollo como India. También tiene su origen en el ser humano y en cómo funciona la sociedad. Ahora el loco del barrio se convierte en el loco del mundo, y no podemos esperar que las compañías vayan silenciando a todos ellos. Se ha de silenciar lo ilegal, y eso solo le corresponde a la ley. O, al menos, debería.