Si 2017 fue el año en el que más se criticó a Facebook por cómo crecieron las noticias falsas en la red social, 2018 está siendo el año en el que se están destapando varias vergüenzas de YouTube, principalmente por su forma de ofrecer contenido recomendado.

En solo tres meses la plataforma de vídeos de Google ha sufrido críticas por su tratamiento tras el vídeo del cadáver de Logan Paul o la inclusión en su sección de tendencias de un vídeo conspiranoico que atacaba a un superviviente del tiroteo de Parkland, en Florida. No era la primera vez que estos problemas se hacían visibles: en octubre de 2017, tras la propagación de bulos y teorías durante el tiroteo en Las Vegas que acabó con la vida de 58 personas, la plataforma anunció un cambio en su algoritmo. En este caso el motivo eran los vídeos falsos se llegaron a colar en la primera página de resultado de búsquedas de Google al rastrear información sobre el suceso. Que la credibilidad del principal oráculo de información para la mayoría de personas se viera empañado, fue demasiado para la compañía del buscador.

Sin embargo la polémica no ha cesado. Si bien los resultados de vídeos de YouTube al buscar información en Google parecen ahora mucho más depurados. El problema sigue estando latente dentro de la plataforma, en concreto en su algoritmo de recomendación de vídeos que a menudo ofreciendo contenidos inflamatorios y cuajados de informaciones falsas. 

La investigadora turca Zeynep Tufekci, experta en redes sociales, realizó una investigación informal con este asunto que le llevó a tildar a YouTube como “el gran radicalizador del siglo XXI” en un artículo publicado por el New York Times. Tufekci estaba trabajando en una investigación buscando vídeos de la campaña presidencial de Donald Trump y se dio cuenta que tras visionar decenas de vídeos, los contenidos relacionados que le ofrecía la plataforma tiraban siempre hacia argumentos de extrema derecha. Una vez finalizó con esto, creo una cuenta nueva y cambió de tercio, visionando en esta ocasión discursos de Bernie Sanders, el candidato más de izquierdas del partido Demócrata. Esto le acabó llevando a vídeos recomendados que trataban teorías como la supuesta intervención del Gobierno norteamericano en los atentados del 11-S y otros bulos promocionados desde el otro extremo del radicalismo.

En el resultado y las conclusiones de la investigadora, YouTube actuaba como una cámara de eco que refuerza las opiniones del usuario, un efecto perverso que también se había diagnosticado a Facebook con sus problemas de las noticias falsas y que es fácil de entender. Sus algoritmos de recomendación funcionan para que si por ejemplo buscamos vídeos sobre cómo cuidar a nuestra mascota, encontremos una decena de contenidos concatenados que te hagan mantenerte pegado a la pantalla. El problema es que si en lugar de buscar vídeos de animales lo hacemos de un asunto más extremo, YouTube no va a frenar ese caudal de información sesgada. Al contrario, la va a fomentar.

Los bulos sobre temas como que la Tierra es plana se reproducen hasta 4 veces más en YouTube

Esta crítica a YouTube también se ha producido desde dentro de la propia empresa. Guillaume Chaslot es un programador francés de 36 años experto en inteligencia artificial que trabajó para Google durante tres años implementando el algoritmo de recomendación de YouTube. Fue despedido en 2013 por desavenencias con la empresa y desde entonces ha colaborado en investigaciones con el Wall Street Journal o la citada publicada por el New York Times en las que se ponía de manifiesto el perverso funcionamiento del algoritmo.

“El algoritmo de recomendación no está calibrado para primar lo veraz, sino lo que te hace quedarte más tiempo visualizando vídeos. En cierto modo da la apariencia de que es una realidad que te muestra tus afinidades, pero lo hace de una forma distorsionada”, señalaba Chaslot en una entrevista en The Guardian.

En su blog en Medium Chaslot ahonda un poco más en el problema, que en parte también radica en la gran cantidad de canales que usan la plataforma con el fin de difundir información falsa. Según él ha podido rastrear, YouTube es mucho más propenso a albergar conspiraciones y bulos que los resultados de Google. Como ejemplo, las teorías "tierraplanistas" encuentran en el buscador un 20% de resultados que la defienden, mientras que en los vídeos de recomendación de YouTube este porcentaje sube hasta el 90%. Del mismo modo ocurre con los argumentos que afirman que el cambio climático es una falsedad, donde su presencia es hasta tres veces mayor en las recomendaciones de la plataforma de vídeos que en todo el contenido que ofrece Google.

[!Chaslot

YouTube, el lugar ideal donde monetizar desgracias ajenas

Por desgracia, y a pesar de que YouTube se ha puesto manos a la obra en eliminar los anuncios de contenidos extremos o poco contrastados, parece que estos siguen prosperando. 

Un ejemplo reciente lo tenemos en el caso del niño Gabriel Cruz, asesinado en España recientemente en un suceso que ha traído gran atención por parte de la opinión pública. Durante los días posteriores al descubrimiento del cadáver del menor, la sección de tendencias de YouTube España se plagó de vídeos del caso, todos ellos monetizados y en muchas ocasiones subidos por canales sospechosos y con apariencia de bot. Este tuit de Isaac F. Corrales, es una buena muestra de ello:

https://twitter.com/isaacfcorrales/status/973496427124019200

Llama la atención que uno de los canales que más vídeos ha subido sobre Gabriel sea uno llamado "3.186.368 ditonton", un usuario que entre sus vídeos más antiguos muestra contenidos de Indonesia pero que por algún motivo ha subido más de 100 vídeos en pocos días del suceso, además de otros en tendencia en España como Operación Triunfo. Estos vídeos, que en su mayoría utilizan contenidos con derechos emitidos en televisión, parecen infringir todas las normas de YouTube, pero sin embargo siguen estando visibles y sumando millones de reproducciones.

YouTube intenta remediar el asunto, sin conseguirlo de momento

Robert Kyncl, Chief Business Officer (CBO) de YouTube, fue cuestionado por todos estos problemas en una reciente entrevista en _Hollywood Reporter_. El directivo asumió los errores de su empresa en muchos de estos aspectos, como la tardanza en dejar sin ingresos a Logan Paul, pero también explicó las dificultades para cribar todo el contenido.

Cada segundo se suben a YouTube 400 horas de vídeo, un contenido imposible de revisar manualmente y que se deja a cargo de varios algoritmos. "Entre julio y diciembre de 2017 los algoritmos realizaron el trabajo de 180.000 personas trabajando 40 horas a la semana, exclusivamente eliminando y penalizando vídeos extremistas", explicó el directivo.

Por el momento, YouTube parece ir dando palos de ciego a la hora de proteger a su audiencia y ganar credibilidad —algo vital para la confianza de sus anunciantes—. Su último movimiento, consistente en exponer enlaces a Wikipedia en vídeos sospechosos de promover ideas falsas, ha sido tildado por muchos como una salida hacia delante sin demasiada planificación, especialmente porque, como publicamos días atrás, ni la propia Wikipedia fue informada de este paso.