Aunque los comentarios de YouTube suelen ser motivo de risas y chistes entre muchas personas por la cantidad de cosas absurdas que se consiguen en ellos, la realidad es que el sistema de moderación de comentarios en el servicio de vídeo deja bastante que desear. Una de las principales quejas que tienen tanto quienes consumen el contenido como quienes lo producen, tiene que ver con este apartado y en lo mal que ha manejado Google las políticas referentes a la incitación al odio. Pues, finalmente YouTube da un paso adelante y ya cuenta con políticas para reportar contenido que incite al odio y la violencia.

Más que bloquear usuarios

Anteriormente lo único que podías hacer para eliminar este tipo de contenido de tu canal de YouTube como creador, o para no ver más los comentarios de un usuario en particular que se comporta de manera ofensiva, era bloquearlo. Esto no evita que la persona siga comentando en otros lados, ni tampoco se reprendía el comportamiento de esta índole. Tampoco se abarcaba siquiera el reporte de un vídeo alojado en la web de Google que incurra en las faltas.

A partir de ahora la política de YouTube tiene una sección específica sobre el "Discurso de incitación al odio" que nos guía sobre el proceso a seguir para marcar un vídeo como inapropiado cuando incita al odio o la violencia, o para enviar un informe de abuso sobre comentarios, cuentas de usuarios, o vídeos que infrinjan la política.

Los discursos de incitación al odio o la violencia se refieren a contenido que promueve la violencia o el odio contra individuos o grupos de acuerdo con ciertos atributos como, por ejemplo:

origen racial o étnico, religión, discapacidad, sexo, edad, condición de ex combatiente de guerra, identidad u orientación sexual.