En julio de 2016 la cadena Fox News fue protagonista de un escándalo tras haber sido denunciada por más de veinte mujeres por discriminación laboral en el seno de la empresa. Su director ejecutivo, y uno de los fundadores de la compañía, Roger Ailes, fue acusado de acoso sexual por varias de las mujeres que habían trabajado con él, quienes alegaban, además, haber sido víctimas de presiones y degradaciones dentro de la empresa. Tras la judicialización de los casos se inició una investigación de la gestión de Ailes en Fox que terminó con su salida forzada de la compañía, aunque no sin recibir una cuantiosa suma de dinero.

La dirección de la empresa cambió de manos y con Ailes pareció marcharse la lacra machista que había hostigado a las mujeres hasta entonces. Sin embargo, con su sucesor las cosas no cambiaron demasiado, y la compañía continuó reproduciendo los estereotipos que dificultaban a las mujeres el desempeño de su trabajo en condiciones de igualdad y les impedían alcanzar puestos de responsabilidad.

Pero, ¿qué habría sucedido si Fox hubiera dejado las labores de contratación y promoción interna en manos de un algoritmo? Esta es la duda que se plantea la experta en ciencia de datos Cathy O’Neil, que explica que “para construir un algoritmo hacen falta dos cosas: datos, que se obtienen del pasado, y una definición del éxito, lo que se busca conseguir”. En el caso de la cadena de noticias parece razonable tomar los datos de las solicitudes de empleo recibidas en los últimos 21 años y definir a las personas exitosas como aquellas que, habiendo permanecido en la empresa durante cuatro años, han sido ascendidas al menos una vez.

Sin embargo, pese a la aparente imparcialidad del algoritmo, esta medida no solo no habría acabado con el sesgo machista en la contratación y promoción dentro de la compañía, sino todo lo contrario. Como plantea Cathy O’Neil, lo que habría hecho el algoritmo es aprender qué patrones han llevado a determinadas personas a ser exitosas en el pasado y, a partir de ahí, habría seleccionado perfiles similares. Algo que, por extensión, habría eliminado a las mujeres de la ecuación por no ceñirse en el pasado a la definición dada de éxito, precisamente debido al sesgo existente en la empresa.

Los algoritmos son herramientas al servicio de los objetivos de quienes los diseñan o los financian, aunque se encuentran protegidos por un falso halo de neutralidad. O’Neil los define como **“opiniones incrustadas en las matemáticas” y advierte de que el big data se aprovecha de “la mezcla de miedo y confianza que las personas sienten hacia las matemáticas para evitar que estas hagan preguntas”.

Ahora que tengo tu atención

Cuando en 1962 Joseph C. R. Licklider describió su concepto de “red galáctica”, que constituyó la primera descripción registrada de las interacciones sociales que se podían habilitar a través de la red, nunca pensó que sus escritos darían lugar a un nuevo tipo de economía.

De la mano de internet surge la denominada economía de la atención, un concepto acuñado por el economista Herbert Simon que hace referencia a la manera en que el exceso de información consume la atención de los usuarios, generando su escasez, y que tiene que ver con el modelo de base sobre el que se desarrolla la comunicación online. Internet se crea en torno a la idea de la democratización de los contenidos; la llegada de la web supuso la ruptura de numerosas barreras de acceso a la información, que pasó a estar disponible globalmente de forma fácil y gratuita en grandes cantidades.

En este contexto aparecen las primeras plataformas dispuestas a convertirse en las Marie Kondo de este nuevo medio de masas, empresas que persiguen lucrarse con la distribución, organización y centralización del tráfico de la red. Mediante un modelo basado en la publicidad, que cobra a las marcas en lugar de a los usuarios, intentan garantizar su rentabilidad a través de la canalización de la máxima atención hacia sus espacios.

https://hipertextual.com/entrevistas/helena-matute-empresas-mas-millonarias-viven-atencion-usuario-su-clic

Una de las claves de este modelo de negocio es el sistema de recompensa variable. Un concepto acuñado por el psicólogo conductista estadounidense B. F. Skinner tras la realización de una serie de investigaciones con animales en las que les ofrecía comida tras accionar una palanca. Sus experimentos demostraron que tanto si la recompensa se entregaba cada vez que se accionaba la palanca como si se entregaba solo en intervalos fijos, los animales dejaban de accionar el mecanismo tarde o temprano. Sin embargo, si la entrega de la recompensa se hacía sin un patrón determinado, es decir, de forma variable, el comportamiento se volvía muy difícil de extinguir.

Algunos años más tarde, las investigaciones de Skinner fueron complementadas por otros autores, que estudiaron la relación de las adicciones con la popularmente conocida como “molécula del placer”, la dopamina. Partiendo de los experimentos realizados por Skinner, se logró demostrar que la adicción de los animales a los sistemas de recompensa variable se relaciona con que la liberación de dopamina se produce justo después de accionar el mecanismo, en lugar de una vez recibida la recompensa. Como cuenta Hugo Sáez, consultor digital y experto en behavioral science, “la dopamina no sólo nos impulsa a buscar comida, sino también información, socialización o diversión. Y si introduces un sistema de recompensa variable en cualquiera de estas búsquedas a nuestro cerebro le cuesta decir basta”.

Así entramos en un ‘loop de dopamina’: la dopamina te incita a la acción, obtienes la recompensa y como no te sacias, vuelves a realizar la acción. De ahí la sensación de adicción”.

Pero la llegada de los smartphones marcó un nuevo punto de inflexión. La irrupción de dispositivos que suponían la completa destrucción de las barreras de acceso a internet fue determinante para crear lo que Paloma Llaneza, autora del libro Datanomics, ha calificado como “generación de la adicción”. Internet en la palma de nuestra mano. “Vivimos rodeados de elementos que nos hacen estar enganchados a estos entornos. Trucos para que abramos el correo electrónico muy a menudo, para que comprobemos nuevas notificaciones, para que veamos si en nuestra red social alguien ha dicho algo importante que nos va a cambiar la vida, etc…”, comenta la autora a Hipertextual.

La pelea por nuestra atención se ha agudizado, y las distintas plataformas intentan generar loops de dopamina para que sus usuarios se queden el máximo tiempo posible, y así rentabilizar el negocio. Como cuenta Llaneza en su libro, “tanto Facebook como Google y otras plataformas sociales viven del mercado publicitario, lo que coloca a los anunciantes en la posición del verdadero cliente, mientras que los usuarios de las plataformas son el producto”. Con el fin de satisfacer a sus verdaderos clientes, y de paso llenar sus propios bolsillos, muchas de ellas utilizan métodos similares a los empleados en la industria de los juegos de azar. El envío constante de notificaciones, los mecanismos pull to refresh, scroll infinito o autoplay y los propios algoritmos son algunos de los recursos de los que se sirven las compañías para reproducir el sistema de recompensa variable y asegurarse el retorno y permanencia de los usuarios en sus plataformas.

Loren Brichter, creador de la técnica para cargar contenido pull-to-refresh, con un funcionamiento que evoca las máquinas tragaperras, admitió en una entrevista para el periódico británico The Guardian que su intención nunca fue dar con un mecanismo adictivo, y que, ahora que tiene dos hijos, se arrepiente de cada minuto que no les presta atención por culpa de estar pendiente del teléfono. Estos mecanismos surgieron por casualidad y terminaron por convertirse en los productos estrella del negocio. Sin embargo, como nos recuerda Paloma Llaneza en Datanomics, “alteran físicamente la estructura del cerebro y hacen que las personas sean más susceptibles a la depresión y a la ansiedad. Se está documentando que el uso de redes sociales provoca un aumento de la tristeza y el potencial de tener un impacto psicológico adverso en los usuarios”.

Un filtro para gobernarlos a todos

La encarnizada lucha de los medios digitales por la atención de los usuarios, dominada por las exigencias de la publicidad, da lugar a que la organización de la información tenga un funcionamiento peculiar dentro de este ecosistema. El contenido se transforma para amoldarse a los intereses de los consumidores, y la dependencia publicitaria obliga a las plataformas a generar flujos de información constantes para tratar de retener a los usuarios. Un modelo que ocasiona no pocas consecuencias.

En primer lugar, la agenda informativa deja de estar en manos de profesionales y medios imparciales cuyo deber ético es garantizar la veracidad y objetividad de las informaciones. Los empresarios digitales toman las riendas y, motivados por la necesidad de incrementar sus beneficios, persiguen un tono polémico en sus comunicaciones, abrazando la opinión en detrimento de la imparcialidad, que resulta menos rentable para sus negocios.

Esa falta de objetividad se ve, a su vez, agravada por lo que actualmente se conoce como “sesgo de confirmación”, un instinto que nos conduce a sobreestimar el valor de aquella información que encaja con lo que pensamos, llevándonos incluso a ignorar lo que no coincide con nuestras creencias previas. Hugo Sáez explica la manera en que este sesgo contribuye a la construcción de un relato en las redes sociales que no es otra cosa que el eco de nuestras propias ideas. “Uno de los mayores problemas de leer y escuchar mucha información que refleja nuestras ideas es que tenemos la impresión de que la mayoría piensa como nosotros. Eso nos lleva a creer que nuestra opinión es la correcta y que las opiniones diferentes son minoría y están equivocadas”.

La proliferación de contenidos cada vez más polémicos, alineados con las creencias personales de los receptores, reafirma sus posiciones y las desplaza poco a poco hacia el extremo, generando un fenómeno global de polarización social. Como afirma Sáez: “Si los medios que leemos solo reflejan un lado de la historia, si las plataformas donde nos informamos nos refuerzan el mismo enfoque constantemente, es imposible que consideremos otras narrativas”.

Este proceso ha sido bautizado por el activista Eli Pariser como “filtro burbuja”, que él mismo define como “el universo propio, personal, único, de información que uno vive en la red”. El contenido de la burbuja va a depender de quiénes seamos y lo que hagamos y cuenta con la particularidad de que “uno no decide qué es lo que entra y, más importante aún, no ve lo que se elimina”.

El autor de El filtro burbuja: cómo la web decide lo que leemos y lo que pensamos relató durante una charla TED que el funcionamiento de las redes se le reveló por primera vez mientras usaba Facebook, al ver que la plataforma eliminaba por completo de su muro las noticias de la parte del espectro político con la que no simpatizaba, pese a que él las consideraba fundamentales para mantenerse informado. Pero, ¿qué implica esto? En palabras de Pariser:

Esto marcha muy rápido hacia un mundo en el cual Internet nos va a mostrar lo que piensa que queremos ver y no necesariamente lo que tenemos que ver”.

Decía Noam Chomsky en 1993 que “cuando no se puede controlar a la gente por la fuerza, se tiene que controlar lo que piensa”. Actualmente, el poder de decidir cómo se informan las personas se encuentra en manos de empresas que buscan rédito económico y cuyos objetivos se sitúan muy lejos de los intereses y necesidades de los ciudadanos y la opinión pública. Paloma Llaneza sostiene que estamos peor informados que nunca. “Hemos sido manipulados para perder la objetividad. Nuestros sesgos son la nueva objetividad”. Algo que choca frontalmente contra el derecho de los ciudadanos a la información veraz.

El artículo 20 de la Constitución española reconoce y protege el derecho a comunicar o recibir libremente información veraz por cualquier medio de difusión. Sin embargo, Llaneza explica que “no tenemos una ley que nos diga cómo reclamar ese derecho a recibir información de naturaleza veraz”. Una coyuntura que las plataformas aprovechan para desentenderse de su responsabilidad sobre la veracidad de las informaciones que distribuyen.

Paloma Llaneza explica por teléfono a Hipertextual cómo Facebook, al igual que otras empresas, tiene una doble postura ante esta situación: actuar como editor o como mera plataforma. “Aquí hay una gran cuestión legal que hace que si aceptaran que están trabajando como editores tendrían que aceptar la responsabilidad de los contenidos no verídicos que publican en su red”. Por este motivo, Facebook mantiene su posición de intermediario y elude la obligación de hacerse cargo de los contenidos que se publican en su plataforma más allá de aquellos que hayan sido reportados por inclumplir las condiciones contractuales que la compañía establece para los usuarios. De hecho, según explica la autora de Datanomics, las informaciones que pueden ser consideradas fake news no se retiran de la plataforma, sino que son marcadas por terceros, algo que no es casual “porque si lo hicieran ellos estarían curando el contenido y serían editores”. Sin embargo, Llaneza afirma: “Cuando ellos ordenan tu timeline de una manera determinada, ofreciéndote aquello que entienden que te va a reafirmar, yo creo que sí curan los contenidos y entiendo que deberían ser responsables por ellos”.

Matemáticas a favor del statu quo

La caverna informativa generada a través del “filtro burbuja” se construye mediante un conjunto de algoritmos que recogen datos de los usuarios para, en principio, optimizar su experiencia en la web. Una cuestión aparentemente sencilla que, sin embargo, esconde una gran cantidad de letra pequeña.

José Luis Orihuela, profesor en la Facultad de Comunicación de la Universidad de Navarra, define un algoritmo como “una secuencia de instrucciones codificadas con las que un programa informático ejecuta una tarea compleja”, como, por ejemplo, la recomendación de un contenido. Para este fin, los algoritmos “analizan el perfil y el historial del usuario y lo comparan con otros usuarios similares y con su propia red de contactos”, cuenta Orihuela.

Pero para poder predecir los intereses de un usuario, con los que posteriormente se construirán las burbujas informativas personalizadas, el algoritmo necesita contar con una serie de datos que le ayuden a hacerse una idea de cómo es ese usuario. Como afirma el profesor Orihuela, “los datos de los usuarios son el alimento de los algoritmos que utilizan los sistemas de recomendación”. De este modo, las plataformas usan algoritmos para recomendar contenido personalizado a sus usuarios y retener su atención durante el máximo tiempo posible, aumentando la rentabilidad del negocio. Un complejo y peligroso proceso en el que los datos se revelan como la piedra angular del beneficio económico de las compañías más poderosas de internet.

Paloma Llaneza habla de “bases de datos enriquecidas”, en las que los perfiles se completan con información que, pese a que se considera pública, y aunque legalmente no lo sea, está siendo recogida sin que los usuarios sean plenamente conscientes. Se trata de información que “el cliente no te daría si supiera lo que te está dando, porque no te contaría con quién ha pasado este fin de semana o qué es lo que merendó ayer”, cuenta Llaneza, “pero toda esa información es relevante para saber su estado de salud, su equilibrio emocional, su situación monetaria, etc.”.

La autora de Datanomics relata en su libro varios ejemplos acerca de cómo las grandes compañías se aprovechan de la ignorancia de los usuarios para extraer una gran cantidad de datos sobre su vida, en teoría, privada. Un análisis del Wall Street Journal reveló que en una inocente noche de “mantita y peli” los usuarios solo son conscientes del 28% de los datos que le proporcionan a las grandes empresas con las que interactúan.

El propio vicepresidente de ingeniería de Google, Dave Burke, identificó, en un experimento realizado por él mismo en 2017, los dos tipos de datos extraídos por la empresa: datos activos, que engloban la información que el usuario entrega de forma deliberada, y datos pasivos, que hacen referencia a aquella información que la compañía recopila en un segundo plano sin notificárselo al usuario. Como cuenta Llaneza, tras pasar un día entero en compañía de un dispositivo Android, “Google recopiló numerosos datos relacionados con la actividad del usuario, como su ubicación, sus rutas, productos adquiridos o la música que escuchó a lo largo del día”. Pero lo más relevante es que “recopiló o infirió más de dos tercios de la información a través de medios pasivos”.

Otro ejemplo es el experimento realizado por el científico Douglas Schmidt, en el que buscaba comparar la recopilación de datos entre dispositivos Android y iPhone a través de la monitorización del tráfico enviado a lo largo de 24 horas por cada uno de los dispositivos, y del que extrajo diversas conclusiones. Durante el transcurso del experimento, el dispositivo Android envió seis veces más información a los servidores de Google que el teléfono iPhone; en total remitió 900 muestras de datos, el 35% de las cuales estaban relacionadas con la ubicación del usuario. Las comunicaciones con los servidores de Google aumentaron considerablemente a medida que crecía la interacción del usuario con el teléfono a lo largo del día, y tanto Android como Chrome enviaron datos a Google incluso sin que existiera dicha interacción, algo que no sucedió con iOS o Safari.

Para el experto en algoritmos Kevin Slavin estos son las matemáticas que usan los ordenadores para tomar decisiones, pero el profesor José Luis Orihuela recuerda que “tanto las selecciones de datos que se les suministran como los problemas y las definiciones de éxito con los que se configuran contienen las opiniones, prejuicios, errores e ideologías de sus programadores”.

Los errores humanos se trasladan al diseño de los algoritmos disfrazando la perpetuación de los sesgos existentes de neutralidad matemática, lo que supone un grave peligro para la sociedad. Como afirma la escritora Paloma Llaneza: “El perfilado que nos prometen como parte de una experiencia de compra puede convertirse, sin una aplicación escrupulosa de la ley y sin la transparencia debida a los clientes, en una fuente de perpetuación de la desigualdad y de los sesgos cognitivos”. Algo que ya se está llevando a cabo a través de lo que Llaneza denomina “perfiles de rentabilidad”. Estamos siendo categorizados por algoritmos, y “mientras que el objetivo de estos sistemas podría no ser el control social, a menudo es su subproducto”.

La tecnología está permitiendo una nueva forma de control social”.

El auge de los algoritmos viene acompañado, además, de lo que Orihuela describe como **“un factor de ‘caja negra’”, que hace referencia al desconocimiento de la población tanto sobre los datos recopilados por las grandes compañías como acerca de los objetivos que estas persiguen al aplicar sus algoritmos. Pero este vasto desconocimiento, unido a la falsa creencia generalizada en la imparcialidad de los algoritmos, resulta aún más peligroso si tenemos en cuenta que todavía no se han incorporado principios éticos al uso de esta tecnología. Precisamente con este fin nació el año pasado Center for Humane Technology en San Francisco, una organización formada por ex-trabajadores de las más grandes empresas de Silicon Valley con el objetivo de incluir la ética en el diseño de la tecnología.

Una materia sobre la que los expertos ofrecen diferentes soluciones. La matemática Cathy O’Neil propone la realización de auditorías algorítmicas en los sistemas que afecten directamente al público, una idea que las empresas rechazan de pleno alegando secreto empresarial. Isabel Fernández, directora general de Inteligencia Aplicada en Accenture, insiste en que no solo se trata de buenas prácticas: “Igual que ocurre en un quirófano para garantizar que está limpio, creo que tiene que haber un protocolo o una acreditación para evitar los sesgos en los datos”. Por su parte, Paloma Llaneza coincide con el fundador del movimiento del software libre Richard Stallman, que sugiere que los sistemas recopilen únicamente la información necesaria para desempeñar sus funciones, sin almacenar ningún dato que comprometa la privacidad. Para la autora de Datanomics “el mejor dato es aquel que no se recoge”.

“La sociedad que conocemos ha mutado con una fe casi religiosa en la que los datos son la solución y no el problema”,
Paloma Llaneza

Cuando Nix encontró a Wylie

Todo este entramado de extracción indebida de datos para generar perfiles individuales que ofrezcan una interacción personalizada con los usuarios, a fin de mantener su atención durante el máximo tiempo posible y así aumentar su rentabilidad, se pone en marcha a través de las plataformas que nacieron para ordenar la profusión de contenido disponible en internet y que pronto transmutaron en empresas sin escrúpulos a la caza de un engrosamiento de sus beneficios a costa de los derechos de los potenciales consumidores.

Uno de los grandes paradigmas de este proceso de manipulación lo encontramos en Facebook y el escándalo de Cambridge Analytica, en el que los datos de millones de usuarios de la plataforma fueron sustraídos para cambiar su intención de voto.
Todo empezó con
Christopher Wylie, un joven experto en estudios de masas e influencia en el comportamiento y con un extenso currículum como asesor político que fue, como él mismo ha llegado a afirmar, “el creador del arma de guerra psicológica para llevar a Trump al poder”.

Wylie trabajaba en SCL Group, una empresa británica dedicada a la manipulación de audiencias, cuando descubrió una manera de multiplicar exponencialmente los datos que la compañía obtenía de Facebook para crear sus perfiles, una maniobra que el empresario Alexander Nix, vinculado a SCL, quiso aprovechar para dar el salto al otro lado del charco. De esta forma, Nix creó Cambridge Analytica como una filial de la corporación británica en Estados Unidos destinada a intervenir en la política del país, ya que la legislación norteamericana impedía a compañías extranjeras operar en sus procesos electorales. Con su llegada al Nuevo Mundo, Nix buscó la manera de sacarle partido a la táctica de Wylie, y se topó con Steve Bannon, jefe de estrategia de la Casa Blanca.

De la mano de Bannon y Nix, y con la financiación de la familia Mercer, famosa por sus cuantiosas donaciones al Partido Radical, Wylie se sirvió de un sencillo test de personalidad para acceder a los datos personales de casi 50 millones de usuarios de Facebook y cambiar su intención de voto para las elecciones presidenciales de 2016. Un sencillo y viral test de personalidad fue la puerta de entrada a los datos de aquellos usuarios que lo aceptaron, pero el factor Wylie incorporó una particularidad adicional, pues se las ingenió para acceder también a la información de todos sus contactos. Una infinidad de detalles privados sobre la vida de millones de personas al servicio de un algoritmo diseñado por individuos sin escrúpulos con el objetivo de llevar a Donald Trump a la Casa Blanca a cualquier precio, algo que sucedió con la complicidad de una de las plataformas más poderosas del mundo.

https://hipertextual.com/juno/siri-piensa-que-donald-trump-es-pene

El propio Sandy Parakilas, encargado de supervisar las infracciones de datos por parte de terceros en Facebook durante esa época, reconoció en una entrevista al diario The Guardian que había advertido a la alta dirección de la empresa sobre los peligros de la falta de control de la plataforma en este asunto: “Mis preocupaciones eran que toda la información que dejaron los servidores de Facebook a los desarrolladores no pudo ser monitoreada por Facebook, así que no teníamos idea de lo que los desarrolladores estaban haciendo con la información”.

Pero esta no es la primera vez que la red social compromete la privacidad de sus usuarios. Solo el pasado año, la plataforma se vio obligada a admitir una brecha que había expuesto la información de 30 millones de perfiles, sufrió un bug que permitió el acceso de terceros a fotografías no autorizadas de 6,8 millones de personas, que incluían aquellas que aún no habían publicado, y se reveló que había cerrado acuerdos con múltiples empresas para entregarles el acceso a la información personal de los usuarios** sin su consentimiento.

La gran cantidad de negligencias de la red social de Mark Zuckerberg respecto a la seguridad de su plataforma no solo revela un profundo desinterés por el respeto a la privacidad de los usuarios, sino también una total falta de compromiso con el interés superior de la sociedad y con cualquier mínimo vestigio de ética profesional.

Pese a que estos escándalos generaron una pérdida de confianza de los usuarios en la compañía que le supuso a Facebook una caída en bolsa del 30% en el último trimestre del año pasado, las personas parecen no ser conscientes del peligro que supone la cesión de sus datos a plataformas cuya estrategia de negocio pasa por comprometer abiertamente la privacidad. Sin olvidar que el grupo dirigido por Zuckerberg también posee Whatsapp e Instagram, que superó hace poco los 1.000 millones de usuarios.

David Weinberger, investigador en la Universidad de Harvard, afirma que “hemos entregado el control de la información en nuestra sociedad a entidades comerciales cuyo interés primario no es la salud social y cultural, sino sus propios resultados”.

En ocasiones esos intereses se pueden alinear, aunque no de forma fiable o suficiente”.

La madriguera de la desinformación

En 2013 Google despidió a Guillaume Chaslot, encargado del perfeccionamiento del algoritmo de recomendación de YouTube, declarando problemas con su desempeño laboral. Sin embargo, el ingeniero sostiene que su despido tuvo una motivación encubierta. Cuando Chaslot advirtió las tácticas empleadas por la plataforma para captar la atención de los usuarios identificó que las recomendaciones del algoritmo estaban sesgadas para favorecer el contenido más incendiario. Desde ese momento, Chaslot comenzó a presionar fuertemente a la compañía para que hiciera cambios en su gestión, hasta que fue despedido.

El diario The Wall Street Journal, con la colaboración de Chaslot, realizó una investigación en la que concluyó que YouTube a menudo recomendaba vídeos de extrema derecha o extrema izquierda a aquellos usuarios que habían reproducido anteriormente contenido de fuentes nuevas relativamente populares. Una tendencia que se confirmaba con una amplia variedad de contenidos. Durante la campaña electoral de 2016 en Estados Unidos, Chaslot generó un registro sobre cuáles fueron los vídeos más recomendados de la plataforma y sus patrones de recomendación. Descubrió que, tanto si empezabas viendo un vídeo pro-Clinton, como si lo hacías viendo un vídeo pro-Trump, era mucho más probable que la plataforma te recomendase contenido a favor de este último candidato.

La plataforma de reproducción de vídeo de Google, en la que los usuarios visualizan más de 4 millones de contenidos por minuto, no oculta que su objetivo es “conseguir que los espectadores vean más vídeos que encajen dentro de sus preferencias y que, por tanto, quieran volver a YouTube regularmente”. Pero esas recomendaciones de contenido incendiario realizadas por la plataforma son extensibles a otro tipo de vídeos.

Un pequeño estudio llevado a cabo por la Tech University de Texas ha evidenciado el protagonismo de YouTube en el auge del terraplanismo a través de una serie de entrevistas realizadas en la conferencia anual del movimiento del pasado año. Salvo uno de ellos, todos los entrevistados afirmaron no haber considerado que la tierra era plana hasta que YouTube les mostró vídeos conspirativos. De hecho, muchos declararon que habían visto los vídeos con la intención de refutarlos, pero que habían acabado persuadidos por las teorías que estos exponían. Además, el estudio reveló que muchos de los usuarios habían estado viendo contenido relacionado con otras teorías conspirativas, sobre el 11-S o la llegada del hombre a la Luna, antes de que el algoritmo les recomendase vídeos terraplanistas.

Asheley Landrum, directora del proyecto, no cree que YouTube esté actuando mal de forma deliberada, pero sí sostiene que la plataforma debería corregir su algoritmo para mostrar más información veraz.

La única herramienta que tenemos para combatir la desinformación es intentar aplastarla con información de calidad”.

La oligarquía de Google y Facebook concentra más de la mitad del tráfico de la red, dos plataformas diseñadas para optimizar sus beneficios en detrimento de la privacidad y la seguridad de los usuarios que, en lugar de gestionar la información en base al interés general, ponen en marcha algoritmos diseñados para ofrecer contenidos altamente polémicos en aras de retener a los visitantes el máximo tiempo posible.

En la era de las fake news y de la fetichización del victimismo, en la que el sesgo de confirmación se impone sobre el sentido común y el diseño de los algoritmos contribuye a la radicalización de las opiniones, es necesario ponerle coto a los discursos que, sustentados en prejuicios y estereotipos, buscan confundir y criminalizar.

Los algoritmos no son más que herramientas con base matemática. Sin embargo, no debemos olvidar que quienes los diseñan no están exentos de prejuicios y quienes los financian tienen intereses que rara vez coinciden con el bienestar general. Aún lejos de una regulación integral que introduzca de manera efectiva la ética en el uso y diseño de los algoritmos, debemos mantener una visión crítica acerca de la información que recibimos. En la era de la desinformación, dominada por la dictadura del click, se hace imprescindible la existencia de fuentes que ofrezcan contenido contrastado y de calidad y mentes inconformistas capaces de reflexionar sobre el coste real de la información.