En julio de 2014 tuvieron lugar los disturbios de Ferguson, pero, por algún motivo, las noticias al respecto no inundaron el timeline. Chubascos débiles. Poco después salió a la luz que Facebook ocultaba o al menos ralentizaba notablemente el alcance de las noticias relacionadas con este suceso. Simplemente, su algoritmo había sido encaminado a ello. Un algoritmo no puede ser neutral porque ha sido creado por un humano con un grado u otro de intencionalidad.

La cara B del algoritmo de Facebook: no reordena la cronología, sino que puede decidir, dado su origen humano, qué ocultar o qué promocionar en base a un criterio arbitrarioTradicionalmente, la neutralidad de la red ha tenido su mejor ejemplo en la navegación a dos velocidades, y por lo tanto sus principales salvaguardas (o taimados enemigos) eran las operadoras, las dueñas de la infraestructura física. Quien tiene el cable, tiene el poder. Ahora, las plataformas y distribuidoras, dejado atrás su adocenado pasado como red social, son quienes tienen el poder para determinar qué se ve o qué no en Internet. Principalmente, Facebook, que para algo reina.

Aunque se nos haya olvidado lo de Ferguson, a veces pueden llegar nuevos ejemplos que nos refrescan la memoria. No hace mucho se anunció que la última cruzada de Facebook era contra el clickbait para potenciar el contenido de calidad. Esto, tan difícil de medir por bots y algoritmos, tuvo algunas muy buenas ideas para facilitar el trabajo. Por ejemplo, calcular el tiempo de lectura de un contenido. Si es de unos quince o veinte segundos, es muy probable que se trate de un contenido donde un dato relevante ha sido omitido en el titular para aludir a la curiosidad del lector y empujarlo al artículo.

Este lector no tendrá interés en leer, sino en escanear rápidamente el artículo hasta encontrar el dato que le faltaba en el titular. Nunca adivinarás la duración de la próxima película de Ben Stiller, por dar un ejemplo tonto. A cambio, Facebook (señalado como salvador y como sepulturero del periodismo a partes iguales) potenciaría contenidos con entre uno y dos minutos de tiempo de lectura, como mínimo. Números que señalan que hay un interés real en leer un contenido.

Facebook, que no se ha convertido en una de las mayores empresas del mundo a base de hacer concesiones a nadie, ni tiene en la salvación del periodismo a una prioridad estratégica, hace esto únicamente en aras de mejorar la experiencia de sus usuarios, de mantenerlos dentro de su corral. Clavaron las operaciones de WhatsApp e Instagram, Oculus será la próxima en demostrar rentabilidad, y ahora que cada vez se comparte menos contenido personal en el muro la idea es volver a convertirlo en un espacio cómodo en el que pasar cuanto más tiempo mejor. A base de brillante estrategia, Zuckerberg simplemente "nos tiene". Y va a por más.

Cuando el sesgo es voluntario

Todo este sesgo, tanto en contenidos como en temáticas (trending topics, de hecho), puede acabar señalándose como fruto de una casualidad, como una desviación aceptable del algoritmo, o como una mera cuestión técnica. El hecho, que suele ser demoledor con la charlatanería, es que Gizmodo expone la versión directa de empleados de Facebook, y han apuntado sin error: en Facebook se manipulan las temáticas destacadas a voluntad, directamente por sus editores.

Un ajuste en el código, y Facebook invisibiliza un tema o una persona. Hasta ahora era una hipótesis, ahora sabemos que es realEntre sus conclusiones se encuentra una que señala a un sesgo que penaliza a contenidos conservadores. Lo cual debería hacernos pensar: el poder de Facebook ya es descomunal: con cambiar un par de líneas de su código puede borrar del mapa a quien quiera. Puede inclinar la balanza de la carrera electoral de Donald Trump, potenciar las donaciones a causas humanitarias en un período de tiempo concreto, llamar al ensañamiento con un personaje en situación espinosa o lavar la imagen pública de quien se ve superado por las circunstancias. El problema es que no debería ser así. O al menos en el imaginario colectivo.

Hemos visto casos que no han pasado de anécdota, como el caso de una especie de "algoritmo racista", pero ahora que Gizmodo le ha puesto el cascabel al gato, se supone que deberíamos estar alerta frente a la gigantesca capacidad de Facebook de mostrarnos u ocultarnos a voluntad el tipo de contenido que según los intereses de Facebook debemos o no debemos ver.

La próxima vez que haya un tema global, o al menos estadounidense, cuyo impacto en la opinión pública sea determinante, Facebook estará de nuevo bajo sospecha. Pero quizás ni nos enteremos.

Actualización 10 de mayo: Tom Stocky, vicepresidente de búsqueda de Facebook, ha desmentido lo publicado por Gizmodo en una nota pública en su perfil.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: