Estoy a veinte minutos de allí. Llegaré en diez.

Una de mis películas preferidas es Pulp Fiction. La habré visto más de 100 veces (3 en el cine)… y me sigue encantando, el humor negro, la originalidad de sus diálogos, la fuerza narrativa del director... En su momento Tarantino fue mi ídolo, a fuerza de cine menos bueno le volví a dar su condición de mortal, aunque después de los volúmenes de Kill Bill ha recuperado su sitio en mi Olimpo personal. El caso es que definitivamente lo que más me gusta de esta película es la parte del Sr. Lobo. Eficiencia 100% resolviendo problemas, detallista, implacable, también tiene un sitio en mi Olimpo, Harvey Keitel nunca me ha decepcionado ;)

Yo tengo alma de Sr. Lobo y cuando oigo en todas las charlas sobre analítica web que no hay que hacer mucho caso a la precisión o exactitud de los datos, sino que hay que mirar la tendencia, el porcentaje que supone un segmento sobre otro y tal, se me sube la ceja en plan “me suena a excusa”.

Pero he de reconocer que estoy de acuerdo con esta teoría ya que hay muchas maneras de que los datos “descuadren”. Por ejemplo, nosotros tenemos una agencia que nos tramita el SEM de la empresa, otra nos gestiona las campañas externas... pues nunca hemos logrado que los datos cuadren, ni los clicks, ni las impresiones. Esto me ha dado más de un dolor de cabeza. Al final porque la herramienta no mide las actualizaciones de la página en el caso de las impresiones o porque no se llega a cargar del todo la página destino y por lo tanto mi herramienta no recoge lo que en teoría ha recogido la herramienta de origen o por yo que sé galimatías técnicas no es posible que los datos sean iguales… vamos, a veces casi ni parecidos :) Es duro de admitir pero cuando lo haces todo parece algo más fácil.

Pero sí hay cosas que podemos hacer para disponer de datos lo más parecidos a la realidad posibles. Si la web se mide con Google Analytics se puede excluir el tráfico que generan las IPs de los que trabajan en la compañía para no sumarlo al tráfico “real” (como bien dice el artículo en que se explica cómo poner este filtro, no se tiene por qué perder la información de las IPs excluidas puesto que se puede crear un informe aparte para ellas)

Nosotros hace cosa de un año tuvimos un problema derivado de los datos que se obtenían con HBX. Resulta que teníamos un número desmesurado de visitantes, por muy positivos y optimistas que fuéramos (que lo somos, je je) sabíamos que algo estaba pasando, pero no sabíamos muy bien qué. Acabábamos de empezar a utilizar la herramienta y no teníamos muy claro por dónde tirar. Entonces fuimos pasito a pasito en plan lógico a ver si esclarecíamos el problema. Primer pasito, el día a día… ¿hay un número de visitas muy alto un día determinado de la semana o del mes? No, parece que no hay nada raro. ¿Y las horas? ¿Se producen las visitas a las mismas horas todos los días? Wow… aquí sí que algo es raro raro raro… hay muchas visitas producidas a horas intempestivas, de 1 a 6 AM. No es muy lógico que se visite un banco a esa hora, otro tipo de webs quizás, pero …. Un banco? No. Aquí está el tema.

Otro pasito… segmentamos las visitas y resulta que a esas horas de la madrugada la media de tiempo en el site es de menos de 30 segundos. Robots. Están por todas partes ? hay que localizarlos… ¿Entran todos por el mismo sitio? Sí. Y no es por la home. Eureka. Es por la página que tenemos como landing page en las oficinas del banco. Y aquí está la clave. Descubrimos que si se filtraban las peticiones automáticas de los quioscos el número de visitantes nuevos a esas horas intempestivas disminuía considerablemente. Consecuentemente los datos eran mucho más coherentes y el análisis posterior de los nuevos visitantes mucho más fácil y sin mucha sorpresa. Nuestras métricas bajaron, dejamos a un lado los fuegos artificiales, pero ahora los datos son más reales. De todas las maneras a mí me parece que el dato de visitas es más férreo que el de visitantes o visitantes únicos.

Soy el Sr. Lobo. Soluciono problemas :)

Etiquetas: