fbpx

Todo internet está basado en un modelo cliente_servidor. Estamos hablando, en el caso más sencillo, de los ordenadores conectados entre sí a través de un cable de datos.

Este mismo modelo cliente – servidor es el que inició la web a mediados de los 90. Los servidores web eran ordenadores que contenían un sistema de archivos, situados en algún centro de datos remotos. El cliente era el ordenador que tenía el usuario conectado a internet. Al abrir una dirección web el cliente enviaba una solicitud de un archivo al servidor. El servidor enviaba el archivo de vuelta y la página aparecía en la pantalla del cliente. La vida era fácil entonces.

Pero desde el principio surgió una pregunta: ¿cuántas personas han visto esta página?

La era del log
El recuerdo de las veces que se servia una página empezó con los registros del servidor (logs). El servidor web almacenaba en un archivo de texto una lista de las veces que se había solicitado una página web, junto con la  fecha y la hora, la dirección IP del ordenador cliente, y si había entregado con éxito o no la página. Cada vez que alguien solicitaba una página o cualquier otro archivo (lo que se llama hit) se añadía una nueva línea al archivo de texto del log, parecida a ésta:

123.123.123.123 [26/Apr/2000:00:23:48 -0400] «GET / pages/mypage.html HTTP/1.0» 200 23495 «http://www.previuspage.com/abcdef/» «Mozilla/4.03(Macintosh;I;PPC)».
___________________________

dirección IP de origen – fecha y hora – archivo solicitado – código de error – bytes transmitidos – página desde la que se llega – navegador – sistema operativo.

Inicialmente la función de los logs era seguimiento de los errores, y no se les sacaba demasiado partido en cuanto a la medida de la audiencia. Los primeros sistemas de analítica eran programas que leían estos logs y los interpretaban. Así se podría saber, por ejemplo, si determinadas páginas recibían muchas más peticiones que otras o en que momentos del dia se acumulaban los fallos al entregar las páginas.

Pronto se complicaron las cosas. Las páginas comenzaron a incluir imágenes y videos, con lo que una sola página contenía un número variable y creciente de hits. Por otro lado, los programas de navegación se volvieron más avanzados, guardando una copia de determinados archivos para no tener que volverlos a cargar. Muy pronto los ISP, proveedores de acceso a internet, también comenzaron a almacenar páginas en caché. Esto quiere decir que se hace una copia de la página para entregarla más rápidamente a los clientes. En ambos casos, esa petición no llegaba al servidor, y no quedaba registrada. Hacía falta un método diferente.

Los primeros contadores
A finales de los 90, todo sitio web que aspirase a ser respetado tenía un contador de visitas o hit counter. Bastaba con incluir en el código de la página unas lineas de programación que se ejecutaban en el propio servidor y que hacían  que se incrementara un contador cada vez que se abría la página.

Pronto los contadores comenzaron a ofrecerse como un servicio por pequeñas empresas que ofrecen estadísticas sencillas sobre las visitas. Los contadores suponían un gran avance sobre los logs de servidor, pero aún así tenían varios problemas.

Por un lado, no era fácil distinguir entre las visitas de usuarios y las visitas de los robots. Estos robots, también llamados bots, arañas (spiders) o programas rastreadores (crawlers), eran simples programas automáticos que utilizaban los motores de búsqueda como Google y Yahoo para leer e indexar los contenidos de los sitios. El programa hacía una visita automática a todos los sitios accesibles para poder mostrar resultados de búsqueda.

Para empeorar la situación, muchos de estos contadores de hits que se ofrecían gratuitamente eran máquinas de spam que enviaban peticiones desde el ordenador del cliente para aumentar el tráfico y la posición de otros sitios.

Aún así, los contadores fueron el primer paso para la democratización del análisis web. Los propietarios de un sitio web podían acceder a estas estadísticas sin necesidad de tener acceso a los servidores ni conocimientos avanzados. Aunque los datos fueran a menudo inexactos o irrelevantes, conferían al sitio un aire de profesionalidad y éxito.

Aquí el enlace a Evolución de los buscadores

Si quieres saber más sobre la historia de la Analítica digital este enlace tienes las II parte

Por Melchor Sáez de LaAnet

Os esperamos en LinkedlnFacebookTwitter y Youtube