La Revolución de los Tags de Javascript
Entre finales de los 90 y principios de siglo apareció un sistema de medida que, con pequeñas variaciones, es el más utilizado hoy en dia: los de JavaScript.

Un tag o etiqueta es un fragmento de código que se ejecuta al cargar la página web. En este sentido, los contadores eran versiones primitivas de esta técnica. Sin embargo, con el lenguaje JavaScript, que se ejecutaba en el ordenador del cliente en lugar de en el servidor, aumentaron las posibilidades de obtener información sobre visitantes del sitio.

La compañía australiana Red Sheriff patentó en el 2000 un sistema de medida de visitas basado en JavaScript. Esta patente fue posteriormente comprada por NetRatings, que a su vez fue absorbida por la mediadora de audiencias de televisión Nielsen para comenzar a medir audiencias de internet basadas en el método censal.

El código JavaSript permitía que el ordenador del cliente hiciera una llamada a un servidor externo cuando se cargaba la página. Así se verificaba una página vista. También permitía almacenar cierta información en el ordenador del usuario para leerla más adelante en un archivo llamado cookie. Con estas dos técnicas se podía saber no sólo el número de visitas, sino cuantas de ellas eran desde la misma máquina, el tiempo empleado en la visita, el sistema operativo del ordenador que pedía la página y otros muchos datos. Toda está información se almacenaba en un tercer servidor de analítica web. El análisis de los datos era finalmente un servicio y un negocio.

La democratización de la analítica web
A partir del 2000 aparecieron las compañías más conocidas de la analítica web, usando los tags de JavaScript como tecnología para reunir datos de las visitas. Entre ellas se encontraban empresas como Omniture, WebSideStory o Sawmill. Además, empezaron a ofrecer a los usuarios un interfaz para analizar los datos, accesible y sencilla de utilizar.

Esto hizo que por fin los departamentos de marketing de las empresas empezaran a interesarse por los análisis de datos de tráfico en la web, y en las distintas formas de utilizarlo para mejorar sus negocios. Algo que además era fundamental para las numerosas empresas 100% digitales que empezaban a surgir.

Esto no hizo desaparecer a las medidas centradas en los logs de servidor. No todos los clientes podían o querían ejecutar JavaScript , y eso hacía que el porcentaje de las medidas fallara. Por el contrario, los logs tenían siempre toda la información de las solicitudes que recibía el servidor. El problema era analizar esos enormes archivos. Había soluciones que ofrecían ese análisis de forma efectiva. Una de las más populares era Urchin, una aplicación de análisis de los logs de servidor que en la época usaban las mayores empresas, de AT&T hasta la NASA.

En 2005 Google adquirió Urchin, que paso a llamarse Google Analytics. Pero en lugar de seguir el análisis de logs, Google Analytics cambió y se ofreció como una solución de tags de JavaScript. Con interfaz y una implementación muy sencilla, y un servicio básico gratuito. Google Analytics pasó a ser la herramienta de medida más usada en el mundo. En la actualidad cuenta con más de 30 millones de sitios web en el mundo que lo utilizan.

Cuando Google era el único rey
En los primeros años del siglo XXI Google rompió con los moldes de los buscadores hasta la fecha. En lugar de cobrar por situar los resultados en las primeras posiciones, diseño un algoritmo que ofrecía una tabla rasa a los sitios web para ascender en la lista por sus propios méritos. Fue la época de los «dont´t do evil», una filosofía que tubo un enorme impacto en los usuarios de internet, que gravitaron hacia Google gracias a sus resultados siempre relevantes, y en el mercado, que tubo que adaptarse a una meritocracia real impuesta por una compañía con un enorme peso en el ecosistema.

En los años previos al surgimiento de Facebook, los sitios vivían y morían por Google. La mayor parte del tráfico que registraban provenían de personas haciendo búsquedas bajo las letras de colores de su logo. Si no estabas bien situado en Google, no existías.

Por supuesto pronto surgieron técnicas y técnicos para manipular el implacable algoritmo, y surgió el SEO (Search Engine Optimization), sinónimo de «hacer subir tu sitio en Google». El algoritmo premiaba los enlaces que apuntaban a un sitio, así que se creaban páginas zombie con enlaces apuntando al sitio que se deseaba promocionar. El algoritmo de Google premiaba la presencia de determinadas palabras clave, así que salpimentaban todos los textos del sitio con ellas.

El panorama cambió desde 2012 hasta la actualidad. El algoritmo de Google se volvió más exigente, premiando el contenido original (no sólo los enlaces al sitio) y penalizando las trampas. Algunas grandes marcas sufrieron un descenso terrible en la lista. Por otro lado, el tráfico empezó a llegar de otros sitios llamados redes sociales.

Aquí dispones del enlace a la I parte de la historia de la analítica digital
Por Melchor Sáez de LaAnet

Te esperamos en Linkedln, Instagram, FacebookTwitter, Youtube

Opina sobre nuestra Empresa en nuestra ficha de Google en este enlace