YouTube se está viendo envuelta de manera constante durante los últimos tiempos en una polémica incesante que arrastra desde hace ya demasiado. Intensificada de manera especial con el caso de Logan Paul, pero no solo por este, las políticas que está siguiendo ahora la plataforma de vídeo eran noticia ayer al haber sido eliminado de la misma un canal neonazi. Horas después, tras varias acusaciones de censura por parte de personas y medios afines a la derecha, YouTube afirma que están siendo cometidos algunos errores a la hora de tomar medidas disciplinarias.

En unas declaraciones a *Bloomberg*, YouTube confirma que el crecimiento en su equipo de moderación de canales está provocando que sus políticas "estén siendo aplicadas de manera errónea por algunos de los miembros más recientes". Es decir, YouTube parece estar aumentando sus recursos en lo que a personal se refiere, pero es una acción que está siendo llevada a cabo de manera claramente mejorable (probablemente, debido por las prisas por atajar este problema). Afirman que los errores serán subsanados y volverá a estar disponible todo el contenido que haya sido apartado por error.

YouTube prohíbe un canal neonazi y enfrenta críticas por sus políticas

Estas nuevas políticas incluyen una mayor regulación ante el contenido que sea potencialmente sensible o que incluya discursos de odio, algunos de los cuales se han ocasionado de manera reciente tras el tiroteo en un instituto de Florida. Aunque, como se ha mencionado, el asunto viene de largo, habiéndole costado a YouTube los acuerdos publicitarios con algunas compañías que no querían ver sus anuncios siendo mostrados en vídeos visitados por depredadores sexuales.

Ay, los algoritmos

Quizá no toda, pero buena parte de la culpa de todas estas acusaciones hacia la popular plataforma han sido enfocadas hacia lo que parece una excesiva confianza en los algoritmos que regulan qué tipo de contenido es apto para aparecer en la plataforma y qué relevancia debe dársele en las categorías de destacados y en las búsquedas. Sin embargo, muchas veces estos no distinguen segundas intenciones, actitudes, sucesos o cualquier otra eventualidad que da un sentido totalmente diferente a un contenido específico. Otras, directamente, también pueden fallar de manera aleatoria.

Grandes compañías dejan de anunciarse en YouTube para no aparecer en vídeos frecuentados por pedófilos

El aumento de equipo de YouTube para moderar contenido, a pesar de todo, tampoco está aportando –de momento– las soluciones que se le exigen a una compañía de este calibre. Es de esperar que, a medida que va aumentando la experiencia y se van puliendo los pequeños detalles que está causando este acelerado proceso de puesta a punto para evitar más escándalos, cada vez sean menos los casos a este respecto. Mientras tanto, YouTube vuelve a repetir sus intenciones de mejora, un mantra que comienza a perder efecto al tiempo que se suceden los casos y nada cambia.

Continuamos reforzando nuestras políticas existentes con respecto al contenido dañino y peligroso

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: