En 1994, la agencia Young & Rubicam elaboró para Pirelli un famoso eslogan que rezaba "la potencia sin control no sirve de nada"; una gran frase que podemos llevarnos a cualquier proyecto y la necesidad de medir. Los que trabajamos en proyectos relacionados con Internet, evidentemente, también medimos el impacto de nuestras acciones y analizamos el tráfico de nuestros sitios web para conocer a nuestros usuarios, el impacto que tienen nuestras acciones o cómo llegan los usuarios a nuestro sitio. Normalmente, cuando hablamos del tráfico web, solemos pensar en visitas y usuarios; sin embargo, según un estudio, alrededor del 61,5% del tráfico de una web procede de bots (y, por tanto, no es tráfico generado por "visitantes humanos").

El dato ha sido publicado por Incapsula, una compañía que ofrece servicios de CDN y, en base a los datos de sus clientes y la extrapolación de los mismos, la compañía afirma que más del 60% del tráfico cursado por un sitio web se debe a peticiones realizadas por "otras máquinas" y, por tanto, solamente el 38,5% del tráfico de una página web se corresponde con las visitas realizadas por los usuarios de dicho sitio web.

Según Incapsula, el tráfico de bots ha aumentado en un 21% en el último año puesto que, según el informe que realizaron en 2012, por aquel entonces el tráfico de bots estaba alrededor del 51% del tráfico total de una web (dicho de otra forma, hace un año la mitad del tráfico de una web era "humano" y la otra mitad de máquinas).

¿Y qué entendemos por un bot? El termino bot es una especie de "cajón desastre" en el que incluimos cualquier clase de proceso automático que accede a una página web y, por tanto, genera tráfico. Dentro de esta catalogación encontramos al proceso de indexación de los motores de búsqueda (algo que especialmente interesa a cualquier página web) pero también encontramos otro tráfico algo más peligroso, por ejemplo, el del malware o, incluso, intentos de ataque.

Concretamente, según el informe de Incapsula, la anatomía del tráfico de una web sería la siguiente:

  • El 38,5% del tráfico web procedería de "visitantes humanos"
  • El 31% del tráfico es generado por motores de búsqueda (algo que también beneficia a cualquier sitio web y que, como nos podemos imaginar, es un tipo de tráfico que va en ascenso cada año)
  • El 5% del tráfico procede de una práctica nada honesta, el scraping de contenidos
  • El 4,5% del tráfico procede de intentos de ataque o hackeo de las páginas web
  • El 0,5% del tráfico procede de bots que se dedican a dejar mensajes de spam en los formularios que aparecen en cualquier web (por ejemplo los comentarios de un blog)
Seeweb en Flickr

Aunque el dato del 4,5% del tráfico vinculado al malware y ataques nos pueda parecer un dato bajo, y según el informe de Incapsula éste ha bajado en un 10% entre 2012 y 2013, en mi opinión es algo que deberíamos tener bastante presente si trabajamos en proyectos web.

Cualquier sitio web visible en Internet es susceptible de recibir visitas con fines nada lícitos; dejando a un lado el scraping (que es una mala práctica que, incluso, puede afectarnos negativamente en el posicionamiento en buscadores), son muchas las páginas que reciben cada día visitas de bots que intentan aprovechar vulnerabilidades en versiones obsoletas de gestores de contenidos, intentan aplicar ataques por fuerza bruta (probando contraseñas de bibliotecas) o, incluso, intentan tumbar un sitio web al inundarlo de peticiones o lo llenan de comentarios de spam.

Muchas veces, cuando se pone en marcha una web, nos centramos en los contenidos o en los resultados que nos ofrece Google Analytics pero, de vez en cuando, vale la pena ir más allá de la dinámica del día a día y entender qué pasa en nuestros sitios web.

Como curiosidad, si alguien tiene un blog en WordPress, le recomiendo que pruebe a monitorizar el tráfico "anormal" de los bots (y bloquearlo incluso) con un plugin como Better WP Security, es una buena forma de visualizar lo habitual de este tipo de "visitas".