Standford, California. 1995. Dos jóvenes investigadores por doctorase en Ciencias de la Computación, Sergey Brin y Lawrence Page, publican "La Anatomía de un Motor de Búsqueda Web Hipertextual a Gran Escala" en la séptima conferencia anual de la World Wide Web para presentar el prototipo de un motor de búsqueda: Google, que

[...] está diseñado para rastrear e indexar la Web de forma eficiente y producir resultados de búsqueda mucho más satisfactorios que los sistemas actuales. El prototipo con una base de datos con texto completo e hipervínculos de al menos 24 millones de páginas web está disponible en http://google.stanford.edu

Mountain View, California. 2011. Amit Singhal y Matt Cutts, dos de los principales ingenieros de Google, empresa homónima del motor de búsqueda web más importante del planeta, explican los cambios más recientes en sus algoritmos:

  1. Reduce el ranking de los sitios de baja calidad, los que tienen poco valor para los usuarios, ya sea porque proveen contenido copiado de otros sitios web o porque simplemente no son útiles.

  2. En cambio, califica con mejores rankings a los sitios de alta calidad, es decir, los que proveen contenido original, investigación, reportes profundos, análisis y así por estilo.

Aunque en apariencia sencillos, ¿cuál es el efecto de tales cambios? Google estima que se verán afectadas el 11.8% de las consultas. Y, obvio, que unos sitios suben y otros bajan. Esto de fondo significa una moral más estricta, una donde

  • los "buenos" sitios web son recompensados,
  • y los "malos", castigados: sí, sobre todo esos que copian, pegan, traducen y reproducen con descaro, de forma automática o con trabajadores a sueldo, el trabajo de otros para atraer visitas, más tráfico y por ende, dinero: las Granjas de Contenido, entre ellas, Demand Media, contra la que Google tiene un guerra declarada pues según algunos rumores.

hay un departamento en Google lleno de investigadores con doctorado que existe con el único propósito de sacar a Demand Media de los resultados de búsqueda.

Al respecto, Demand Media dice que el cambio no ha afectado la buena salud de su negocio.

Google califica la bondad o maldad de los sitios web de forma algorítmica, maquinal. ¿Qué garantiza la validez de sus resultados? Sólo sabemos que de forma analítica y experimental han trabajo durante varios meses en ello hasta terminar convencidos de la calidad de los resultados. Por otra parte la empresa dice que no utilizó los resultados de la extensión de Chrome Personal Blocklist para la nueva versión de sus algoritmos, sin embargo al momento de comparar los sitios castigados por sus algoritmos vs. los sitios castigados por los usuarios, hubo coincidencia en el 84% de los casos. Nada mal para esa inteligencia artifical que hay construido Google.

Cabe mencionar que por ahora sólo los usuarios de los EE. UU. disfrutan de la actualización, y que poco a poco será así en el resto del mundo.

Suscríbete gratis a Hipertextual

Estamos más ocupados que nunca y hay demasiada información, lo sabemos. Déjanos ayudarte. Enviaremos todas las mañanas un correo electrócnio con las historias y artículos que realmente importan de la tecnología, ciencia y cultura digital.