YouTube quiere acabar de una vez por todas, o al menos intentarlo, con el abuso, el contenido violento y racista y el resto de elementos que están envenenando la comunidad. La compañía ha comunicado sus planes de futuro en este sentido en dos post donde explican las medidas que van a empezar a tomar para curar a YouTube de este mal que es abuso en las redes. En combinación con los sistemas de machine learning e interacción humana, utilizarán el aprendizaje automático de forma más generalizada y aplicable a más casos.

Esto no quiere decir que YouTube vaya a desechar por completo los algoritmos y el machine learning para controlar el abuso, los extremismos y la violencia, sino que quieren dar a los humanos un posición más importante en la toma de decisiones para depurar la plataforma. Tal como ha comentado su CEO en una carta abierta a todos, la compañía va a aumentar el tamaño de sus equipos hasta el próximo año, con el objetivo de lograr que la cantidad total de personas en Google que examine el contenido que pueda violar sus políticas a más de 10,000 en 2018 entre Google y YouTube, e incluye una mezcla de especialistas que trabajan en estos temas, incluyendo especialistas en implementación de políticas, abogados, ingenieros trabajando en Machine Learning.

Hemos escuchado alto y claro de los creadores que tenemos que ser más precisos a la hora de revisar el contenido. Estamos planificando la aplicación de criterios más estrictos y realizar mejores análisis manuales, al tiempo que aumentamos significativamente nuestro equipo de revisores para garantizar que los anuncios solo se publiquen donde deberían.

Sin duda, se trata del esfuerzo más grande que va a hacer YouTube para mejorar la salud de su plataforma, y pese a que la compañía seguirá usando sus algoritmos y el machine learning, serán los humanos los que a fin de cuentas revisen y analicen, a la vez que enseñan a las máquinas, el contenido que se sube a la plataforma, para que sigan pasando cosas como con los niños.