De 2016 a 2020 no solo es el tiempo que ha pasado entre las anteriores elecciones presidenciales en Estados Unidos y las actuales. También marca el lapso que han tenido las redes sociales desde que comenzaran a tocar fondo al revelarse muchas de sus malas prácticas de privacidad y su escasa lucha contra la difusión de bulos y la puesta en práctica de mejoras para evitarlo.
La elección de Donald Trump hace ahora cuatro años fue una sorpresa para medio mundo, pero la guinda del pastel desde el punto de vista de la cultura digital llegaría dos años más tarde, en 2018, cuando saltaba a los titulares el escándalo de Cambridge Analytica.
Aprovechándose de todas las puertas traseras que dejaba la endeble política de privacidad de Facebook, esta consultora había conseguido perfilar los datos de millones de usuarios sobre los que lanzó toneladas de mensajes que a la postre supimos que habían creado un campo de cultivo ideal para la victoria del incendiario empresario, con sospechas de que incluso Rusia pudiera estar ayudando de alguna forma u otra a este cometido.
Un ciclo electoral después estas elecciones han servido para probar cuánto y cómo de eficaces podrían ser todos los mecanismos que compañías como el propio Facebook, pero también Twitter, habían puesto sobre la mesa para contener que algo así pudiera volver a suceder.
Y la respuesta corta es que, aunque la lucha contra las ‘fake news’ sigue teniendo muchas vías de entrada, Twitter y Facebook parecen haber mejorado considerablemente en este tiempo, incluso marcando como “engañoso” o “en disputa” los mensajes que Trump lanzó para reclamar su victoria y acusar de un supuesto fraude electoral sin prueba alguna.
https://twitter.com/realDonaldTrump/status/1324386685858287616
Por el contrario, YouTube, plataforma que en este tiempo ha pasado por sus propios escándalos, se ha erigido como el verdadero coladero.
YouTube y su incapacidad para controlar el contenido engañoso
En los últimos años la plataforma de vídeo de Google ha afrontado varios problemas, desde la difusión de material pedófilo a controvertido en materia racial, por no hablar de los miles de vídeos que se pueden encontrar en la plataforma que niegan el Cambio Climático, fomentan las pseudociencias, o hacen apología del terraplanismo.
El propio algoritmo de YouTube fomentaba de hecho que, quien entrara en uno de estos vídeos, comenzara una espiral de contenidos relacionados sin fin. Ni sus métodos de control algorítmicos ni humanos han conseguido nunca ser demasiado efectivos -la plataforma llegó a probar con enlazar a páginas de Wikipedia en publicaciones controvertidas-. Y eso, en estas elecciones, se ha notado.
Insider fue el primero en informar de que en YouTube durante la noche electoral norteamericana se podían ver numerosos contenidos de vídeos de seguimiento en directo de los resultados que mostraban mapas electorales en los que Joe Biden iba ganando. Un panorama que justo era el contrario a la realidad cuando comenzó el recuento.
¿El motivo? Además de captar clicks -y con ello ingresos-, hay quien supone que pudo ser un método de activación de sus votantes por parte de plataformas pro-Trump. La causa efecto era la siguiente: si uno de sus votantes ve que su candidato estaba perdiendo las elecciones, incentivar que acudiera a las urnas. Más aún teniendo en cuenta que los votantes demócratas en buena medida ya habían acudido con antelación o utilizado el voto por correo como prevención ante la COVID-19.
Pero no fue solo eso. YouTube fue el último resquicio que les quedó a caras visibles de la llamada ‘derecha alternativa’ norteamericana como Steve Bannon o Alex Jones, que estuvieron manteniendo multitudinarios directos durante horas mientras que en Twitter y Facebook sus perfiles y actualizaciones estaban mucho más acotados. En el caso de Bannon, YouTube acabó retirando su vídeo cuando pidió que el Doctor Fauci, epidemiólogo de cabecera en Estados Unidos, “debía ser decapitado” por sus opiniones sobre la pandemia. La plataforma de Google lo hizo por “incitar a la violencia”.
No pasó así, sin embargo, con otro vídeo impulsado por la One American News Network, una red de medios menores que apoya a Trump, que afirmaba que ya había ganado las elecciones. YouTube llegó a emitir un comunicado al respecto diciendo que el vídeo, si bien violaba sus políticas de publicidad, no lo hacía así en materia de contenido.
Todo esto llama la atención teniendo en cuenta que el día anterior a las elecciones Noah Mohan, jefe de producto de YouTube, explicaba a The New York Times que la plataforma “sería especialmente sensible acerca de los videos que tienen como objetivo desafiar la integridad de la elección o que engañen a los votantes”.
YouTube, eso sí, se defendió alegando que durante las elecciones todos los vídeos relacionados incluían una etiqueta que decía que la elección podría no haber terminado y estaba vinculada a una página de Google con los resultados servidos de Associated Press.
Los cambios en Twitter y Facebook
Facebook y Twitter habían planeado diversas acciones para luchar contra la desinformación el día de las elecciones. Facebook había bloqueado una semana antes los anuncios políticos, mientras que Twitter ya lo había hecho sobre toda la publicidad política desde octubre de 2019.
Además de esto, ambos colocaron fuentes accesibles de información sobre el estado de los recuentos. Y ello, junto con sus equipos algorítmicos y humanos para marcar información parcial o engañosa, parecía que funcionó en un primer momento.
Las plataformas sociales agregaron etiquetas a los mensajes engañosos del Presidente Trump que ya hemos mencionado y notificaron a sus usuarios que no había un resultado cerrado en la carrera presidencial. En la televisión, los presentadores de noticias incluso citaron comprobaciones de hechos similares a las realizadas por Twitter y Facebook.
Aún tendrán que pasar varios días y seguramente meses para ver si todo ello fue efectivo, pero un trabajo de la Fundación Mozilla analizando sus políticas de actuación, marcaba que estas dos plataformas estaban un escalón por encima de YouTube.
Más dudas trae por falta de datos los bulos e informaciones que hayan podido recorrer Whatsapp, propiedad de Facebook. A pesar de que hace unos meses ya limitó la capacidad de reenviar mensaje masivamente, se han seguido dando casos de bulos que han recorrido el chat estos días sobre todo en torno a mensajes que acusaban de un supuesto fraude electoral.
Once President Trump began making premature claims of victory, we started running notifications on Facebook and Instagram that votes are still being counted and a winner is not projected. We're also automatically applying labels to both candidates’ posts with this information. pic.twitter.com/tuGGLJkwcy
— Facebook Newsroom (@fbnewsroom) November 4, 2020
Al igual que Twitter al marcar como “engañoso” algún tuit de Trump y su personal cercano, Facebook, agregó un mensaje sobre estos mismo mensajes que decían que "no se había proyectado ningún ganador de la elección presidencial".
Eso sí, a diferencia de Twitter, Facebook no restringió a los usuarios la posibilidad de compartir o comentar las publicaciones de Donald Trump. Pero era la primera vez que Facebook utilizaba esas etiquetas, como parte del plan de la empresa de añadir contexto a las publicaciones sobre la elección. Un portavoz dijo TechCrunch que la compañía "planeó y preparó estos escenarios y construyó los sistemas y herramientas esenciales".
Alex Stamos, ex jefe de Seguridad de Facebook que salió de la compañía por desavenencias tras los muchos escándalos, dijo en Twitter tras la noche electoral que "siempre habrá una larga cola de casos de desinformación a tratar, pero será menos impactante", aludiendo a las mejoras de estos últimos años.