Buenas noticias para los usuarios de Instagram. La compañía esta vez se ha adelantado a otras muchas redes en materia de lucha contra el acoso, aunque ya tenía un sistema para reportar cuentas, el sistema de reporting de comentarios dejaba bastante que desear. Ahora, la red social fotográfica ha actualizado su app para smartphones con una herramienta muy interesante para moderar comentarios.
Y decimos moderar puesto que, hasta ahora, se podía eliminar un comentario con total facilidad. Lo que la compañía ha anunciado es mucho más interesante: un sistema de filtrado de mensajes basado en palabras claves definidas por el usuario, de forma que aquellos comentarios cuyo contenido coincida con alguna de las palabras clave, será por defecto moderado y no se mostrará en el la caja de comentarios debajo de cada foto/video/direct.
Además, el sistema incluye una función de reporting automático, de forma que aquellos mensajes que hayamos reportado anteriormente como inapropiados alimentarán el sistema para poder generar una base de datos de contenido inapropiado que sirva como filtro automático para ocultar todos los comentarios que los incluyan, eso sí, a petición del usuario.
La actualización está poco a poco llegando a todos los usuarios, por lo que si todavía no está disponible para tu cuenta, lo estará próximamente.