YouTube anunció que ha realizado cambios en su sistema de recomendaciones con el fin de que veas menos videos con teorías de conspiración. El ajuste llega después de que ayer BuzzFeed revelara una investigación del algoritmo de YouTube y cómo es que recomienda videos con teorías falsas, discurso de odio o piratería.
La respuesta de YouTube a las críticas que ha recibido a lo largo de los últimos años llega a destiempo y es bastante tímida. De acuerdo con una entrada en el blog oficial, dicen que "desean asegurarse de que YouTube sugiera videos que en verdad quieras ver". El cambio afectará al contenido que se mantiene al filo de los Principios de la Comunidad, como las teorías de los tierraplanistas, curas milagrosas o las conspiraciones de los atentados del 9/11.
YouTube dice que este contenido representa menos del uno por ciento de los videos de la plataforma y que los ajustes solo aplican para las recomendaciones. Aquellos que se suscriban a canales con esta clase de temas podrán visualizarlos sin problema alguno.
Tarde como siempre, YouTube
La empresa ha estado en el ojo del huracán desde hace mucho. El tema del contenido sensible que desinforma tomó fuerza con las elecciones de Estados Unidos hace un par de años, en donde videos con noticias falsas, racismo y teorías conspiratorias aparecieron en cantidades masivas en plataformas como Facebook y YouTube.
Parece que YouTube solo reacciona cuando se ve envuelta en una polémica. Recordemos que en marzo de 2018 realizó un ajuste a la plataforma para integrar enlaces a Wikipedia en videos de conspiración. Esto ocurrió luego del tiroteo en una escuela de EE.UU. y la salida de un video en donde se acusaba a uno de los sobrevivientes de ser un actor.
El discurso de la empresa es el mismo de siempre: "buscamos hacer que YouTube sea un mejor lugar para todos". Los videos que se mantienen al borde de las reglas no son eliminados por cuestiones de libertad de expresión, solo se mostrarán "menos". ¿Por qué no dejan de mostrarse en su totalidad? Posiblemente porque gozan de gran engagement y representan una mina de oro.
En su respuesta de hoy, YouTube afirma que un equipo personas se dedicará a entrenar el sistema de aprendizaje automático para identificar el contenido que está a nada de violar las reglas. La implementación de esta regla se hará de manera gradual y comenzará en Estados Unidos para luego expandirse a todo el mundo.
People to YouTube: "Stop turning people in to racist terrorists and mass murders with your video recommendations" YouTube: "we think we can reduce a bit recommendations for 9/11 conspiracies and miracle cures." https://t.co/lc1rdCAaUl This is not enough. YouTube must be proactive
— rabble (@rabble) January 25, 2019
Mientras eso pasa, las fake news y el discurso de odio seguirán ahí, al igual que los videos de Logan Paul, de los cazainfieles y más contenido de caracter falso o simplemente basura que tiende a dispararse en YouTube y que en ocasiones su recomendación es mayor que en el mismo buscador de Google.
Los tiempos de reacción de la empresa son cortos y pareciera que a YouTube simplemente no le viene en gana hacer ajustes concretos a su algoritmo. Podemos cerrar con las palabras de Guillaume Chaslot, ex-empleado de Google que trabajó en YouTube: "El algoritmo de recomendación no está calibrado para primar lo veraz, sino lo que te hace quedarte más tiempo visualizando vídeos".