La empresa [Incapsula](http://www.incapsula.com/the-incapsula-blog) especializada en [seguridad en la nube](http://alt1040.com/tag/nube) ha lanzado recientemente un informe que indica que **los usuarios reales generan apenas el 49% del total del tráfico web** , mientras que el resto es generado por ordenadores que tienen en la mayoría de los casos intenciones malignas.

Como se puede ver en el gráfico, además de superarse la mitad en tráfico no generado por humanos, **el 31% tiene como principal objetivo dañar la web**. Para recolectar esta información la empresa hizo un estudio sobre más de mil sitios de clientes suyos con un promedio que va desde 50.000 a 100.000 visitantes mensuales.

En promedio el 5% del total del tráfico de la web proviene de herramientas de hackeo diversas que tienen como objetivo robar información privada, introducir *malware* o afectar la estabilidad del sitio. Otro 5% lo consumen *scrapers* que toman automáticamente el contenido de otros sitios para volver a publicarlo, para capturar infromación que sirva para la construcción de base de datos, etc. Un 2% proviene de *spammers* que publican contenido irrelevante, arruinan la información presentada y entorpecen la conectividad en general. El restante 19% sale de la suma de todos los demás tipos de acciones automatizadas como análisis de palabras claves, alarmas de actualizaciones, etc.

Según lo que declaran **los sistemas más populares para estadística web no contabilizan este tipo de tráfico** aunque se esté llevando a cabo. Servicios como el de [Google Analytics](http://alt1040.com/tag/google-analytics) sólo te muestran las visitas realizadas por usuarios reales. De esta forma aunque no veamos las visitas maliciosas o no podamos medir en la administración diaria de nuestros sites, la mitad del esfuerzo de nuestros servidores y conexiones se está gastando en operaciones automáticas que tienen la intención de atentar contra nuestro servicio.

Antes de alarmarse, es normal que gran parte del tráfico funcione con [robots](http://alt1040.com/tag/robot) o sistemas automatizados, **los buscadores mejoran el indexado gracias a recorrer intensamente la web** gracias a eso mejoran la experiencia para el usuario. El desafío a futuro en la web será achicar el 31% del tráfico que busca hacer daño.

Foto (cc): [Abode of Chaos](http://www.flickr.com/photos/home_of_chaos/)


Suscríbete a Hiper*

Recibe todas las mañanas en tu email nuestra newsletter. Una guía para entender y obtener las claves de lo realmente importante en relación con la tecnología, la ciencia y la cultura digital.

Procesando…
¡Lo lograste! Ya estás en la lista.

Participa en la conversación

7 Comentarios

Participa en la conversación, deja tu comentario

  1. Los Search engine o motores de busqueda tambien son actividades de espionaje usados por los gobiernos lo mismo con facebook y el mensseger asi que abria que hablar de trafico seguro u trafico espiado

  2. «…y alentan la conectividad en general.»
    Arruinan la información, pero eso sí, nos alentan a conectarnos. WTF!

    Me parece que hace falta una revolución total de la seguridad en la red.

  3. Has escrito «alentan la conectividad», cuando alentar quiere decir animar… Quizá lo que querías escribir era «enlentecen la conectividad».
    Buen post por cierto, un saludo.

  4. Tomames en cuenta que la web visible… osea, a la parte que el 90% de los usuarios accede de la web es apenas una pequeña parte de la web al resto se le conoce como deep web.