Toda la información publicada en las últimas semanas por The Wall Street Journal sobre Facebook ha desatado una gran polémica en torno a cómo opera la compañía. Ahora, la exempleada de Facebook que decidió filtrar dichos documentos al citado periódico, ha decidido dar la cara en una entrevista en la que desvela aún más datos impactantes sobre la compañía. ¿Su nombre? Frances Haugen.

Haugen trabajó en Facebook como Gerente de Producto en el Equipo de Integridad Civil hasta mediados de 2021, cuando renunció a su cargo después de que la empresa de Mark Zuckerberg decidiera disolver ese departamento.

En la entrevista concedida a 60 minutes, la exempleada asegura, entre otras cosas, que en la empresa siempre tenían "conflictos de intereses entre lo que era bueno para el público y lo que era bueno para la propia Facebook". Sin embargo, siempre optaban por "sus propios intereses, como ganar más dinero".

El algoritmo de la red social tiende a mostrar contenido que incita al odio

YouTube video

Haugen también destacó, citando informes internos, que el algoritmo de la compañía –el que decide lo que aparece en el feed de cada usuario– tiende a mostrar Fake News y contenido relacionado con discursos de odio. Facebook, gracias a sus propias investigaciones, tiene conocimiento de ello, pero no hace nada para evitarlo porque resulta más beneficioso.

Sus algoritmos muestran contenidos que inspiran odio, división y polarización porque es más fácil provocar ira en la gente que inspirar otras emociones. Facebook se ha dado cuenta de que si cambia de algoritmo para que sea más seguro la gente pasará menos tiempo en la página, hará clic en menos anuncios y, por tanto, generará menos ingresos.

La desinformación o propagación de bulos, además, es más común en las regiones de habla no inglesa. Haugen asegura que Facebook "no se molesta" en contratar a investigadores en otros países para combatir las noticias falsas escritas en otros idiomas, y que la compañía siempre ha actuado como si fuera "imposible ampliar estos equipos". En algunos casos, según explicó Haugen, esta falta de control sobre la desinformación ha hecho que incluso muera gente.

Según la exempleada de Facebook, diferentes partidos políticos europeos también mostraron su desacuerdo con el nuevo algoritmo. Estos, al parecer, obligaban a adoptar posiciones políticas más extremas para que la plataforma muestre su contenido.

Nos estás obligando a tomar posiciones que no nos gustan, que sabemos que son malas para la sociedad. Sabemos que si no tomamos esas posiciones, no ganaremos en el mercado de las redes sociales.

Confirma Frances Haugen citando a una de las fuentes del sector de la política en Europa.

Facebook apena consigue identificar el 5% del contenido de odio y disuelve departamentos centrados en ello

Facebook capitolio

La exempleada de la compañía ha trabajado en empresas como Pinterest o Google, sin embargo, asegura que lo que ha visto en Facebook ha sido "sustancialmente peor" que en otras empresas relacionadas con las redes sociales. Haugen también ha desvelado que la documentación interna confirma que la red social solo consigue identificar un 3 o 5% del contenido que incita al odio. Mientras que solo controla un 1% del contenido que incita a la violencia.

Pese a los preocupantes datos, Facebook decidió disolver el departamento llamado "Integridad Cívica". Este se centraba en la lucha contra la desinformación sobre las elecciones de 2020, pero dejó de funcionar después de comprobar que transcurrieron con normalidad. Meses después, tras el conflicto en el Capitolio, la exempleada de Facebook desveló que algunos empleados mostraron su enfado a la compañía por permitir, en cierto modo, que la red social sirva como portal para coordinar el asalto al Capitolio.

Haugen también ha hablado sobre los peligros de las redes sociales en los adolescentes. En concreto, sobre cómo Facebook conoce que Instagram es dañino para las mujeres jóvenes. De nuevo, cita a estudios internos que detallan que el 13,5% de las adolescentes que ven contenido en Instagram dijeron que empeora los pensamientos de suicidio. El 17% de las adolescentes, además, aseguraron que el contenido afecta a los trastornos alimentarios.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: