HablarDigital

Category: Métricas

Big Bang Data!

-Publicado enteriormente en MisApisPorTusCookies

El “Big Data” es un buzzword desde hace ya un par de años y aunque personalmente creo que conviene más centrarse en sacar un par de buenas conclusiones de los pocos datos que puedas analizar antes de marearse en un mar de datos, la exposición “Big Bang Data” (en Barcelona hasta el 26 de Octubre, en Madrid del 25 de febrero al 24 de marzo 2015) me pareció muy interesante y me hizo pensar…

Hoy en día vivimos una datificación de absolutamente todo. Generar y almacenar datos cada vez es más fácil y barato, pero esta explosión de datos tiene un volumen, se crea a una velocidad y hay tal variedad que es difícil manejarla. En eso consiste el Big Data, que trae consigo nuevas herramientas y metodologías de recogida y analásis de datos (además de nuevas profesiones como el data scientist). Y es que los datos es el nuevo oro:

De todos esos datos se saca información muy valiosa. Pero es un arma de doble filo, cómo dice la exposisión: “el acceso a los datos, el derecho de su uso y el valor que atesoran son factores que se sitúan en el centro de múltiples conflictos contemporáneos: desde la lucha por la transparencia hasta las repercusiones políticas de las filtraciones de Wikileaks y el caso Snowden, pasando por la mercantilización de la intimidad“. Esta “cuantificación del yo” que registra nuestra actividad es una mercancía preciada para gestores de información o data brokers que sacan provecho de lo mucho que saben de ti, vendiendo esa información (como publicidad mejor targetizada por ejemplo), generando un beneficio con lo que saben de ti. Pero ojo, que gracias a ello disfrutamos de muchos servicios onlne “gratis”.

IMG_3212

Muchos de esos datos los generamos nosotros mismos voluntariamente, como las toneladas de fotos y videos en Facebook, nuestros tweets, las búsquedas en Google… Todas esas interacciones se quedan grabadas, pudiendo conocer mejor cómo somos y qué compraríamos. El e-commerce es un claro beneficiario de esto, como vemos en la infografía de Monetate de abajo. Explotar mejor los datos que tienes de los consumidores ayuda a personalizar lo que un retailer ofrece a un cliente en particular, bajando los costes de publicidad, vendiendo más fácilmente y optimizando tus canales de distribucion. ¡No me sorprendente que Sears reemplace sus tiendas por centros de datos!

RetailersBigData_Final

Gracias a los móviles y la implantación de beacons, también vemos cómo los métodos de medición de tráfico online pasan al mundo offline. Por ejemplo el proyecto Barcelona Commercial Footprints de Xavier Giménez permite conocer qué zonas comerciales frecuentan los locales vs. los turistas. Actualmente hay una eclosión de empresas dedicadas a explotar los datos de ubicación y segmentación de tus clientes a pie de calle: Smart Steps, RetailNext… Algunas soluciones pueden ser asombrosas, como saber el impacto de una obra de arte.

Caso aparte es cuando el gobierno se sobrepasa “espiándonos”… Pero mejor verlo en los siguientes videos presentes en la exposición: The Program y How the Government Tracks You: NSA Surveillance (aquí abajo)

Bueno, parece ser que el BigData solo tiene un lado oscuro, pero no. Los ciudadanos también podemos usar todos esos datos para el bien común. Por qué no aprovechar esas herramientas para saber mejor dónde van mis impuestos o cuántos indultos han habido y así fomentar un gobierno abierto y transparente (que buena falta hace). O usar un Smart Citizen Kit para contribuir a sber cuáes son los niveles de polución en tu ciudad, o puede que sea todavía más importante medir los niveles de radiación como hace Safecast, o la conocida alternativa a los mapas comerciales OpenStreetMap, creada a base de la ayuda de la gente. Y por qué no estimar el tráfico portuario o analizar la contaminación marina con Marine Traffic (un proyecto abierto y comunitario con información a tiempo real de dónde están los barcos). O mejorar la planificación de laas ciudades con iniciativas como la Smart Cities.

Otro tema es cómo poder visualizar la información para que los datos nos cuenten su historia. Personalmente creo que cómo transmites el mensaje muchas veces es más importante que el mensaje en si y me ha encatado ver el trabajo de Manuel Lima: “Visual Complexity”, dónde explora la expresión de datos de muchos tipos diferentes de datos. Otro ejemplo sería el el Wind Map de Fernanda Viegas y Martin Watterberg que basados en puros datos de la direccióny y fuerza de vientos consiguen plasmar una obra artísitica:

windmap

Puedes hasta saber en qué zonas hay más hipsters, pero estos mecanismos de predición pueden conllevar problemas – como la herramienta que predice el crimen en Chicago, que puede resultar un poco… racista. Ese “data-centrismo” no tiene la solución a todos los problemas, no debemos delegar la toma de decisiones en unos algoritmos. Los datos dan la ilusión de verdad objetiva pero no todo en la vida se puede datificar en simples unos y ceros.

@victorclar

Smart cities: la analítica digital mejora y salva vidas

La tecnología permite recolectar muchos datos de todo tipo. Gracias a los smartphones y cómo interactuamos a través de ellos (ya sea voluntariamente o pasivamente), se pueden averiguar muchas cosas de cómo viven las personas en sus ciudades. Dejando el BigData y temas de privacidad aparte, todo ese mar de datos puede ayudar a hacer de las ciudades lugares más eficientes en uso de energía, qué infraestructuras faltan o sobran, hacerlas más respetuosas con el medio ambiente, etc. El uso inteligente de esta infomación y tecnologías para mejorar la vida de los habitantes de una ciudad es lo que se llama “Smart Cities.

En un artículo de El País ya nombraron un par de iniciativas en Madrid: la Empresa Municipal de Transportes trabaja con varias empresas no sólo para ofrecer al usuario más infomación sobre tiempos de espera del bus y demás sino también para que señalen incidencias, detectar patrones de movilidad… Mientras que la iniciativa Mad4Sports permite a los madrileños descubrir y compartir dónde y cómo hacen deporte en las calles de la capital. Hay otros proyectos mayores como Smart City Málaga, dónde Endesa pone a prueba una red eléctrica inteligente que mejore la eficiencia de la antigua infraestructura eléctrica, o Smart Santander, dónde 1100 sensores miden las plazas de parking disponibles y parámetros medioambientales como el ruido o la contaminación.

Pero sin duda una de las iniciativas más innovadoras es la de la ciudad de Nueva York, que tiene un equipo de Analítica para la Planificación Estratégica como departamento propio del ayuntamiento. A su director, Mike Flowers, la Casa Blanca le otorgó en septiembre el premio a uno de los innovadores locales más importantes y la verdad es que es impresionante lo que han conseguido.

En NYC hay unos 2000 incendios serios en edificios de viviendas, y en ocasiones muere gente. Una de las principales razones es que las viviendas han sido modificadas ilegalmente para poderlas alquilar a más gente. Resulta que hay unas 20.000 denuncias al año por este tipo de modificaciones, pero solo 200 inspectores. Para ser más eficientes con esos pocos recursos e investigar los edificios que probablemente fueran más problemáticos, el departmento de Analítica cruzó datos como impago de tasas, desahucios, año de construcción del edificio y datos socioeconómicos del barrio. Y funcionó. Antes los inspectores encontraban problemas en el 13% de los edificios, y ahora en el 80%.

Con esos mismos métodos han conseguido explotar los datos de accidentes para ubicar mejor las ambulancias inactivas, disminuyendo el tiempo de viaje cuando ocurre un accidente y así poder salvar más vidas. El departamento también aprovechó las mediciones de grasa en las alcantarillas para identificar posibles restaurantes que estuvieran tirandola ilegalmente por el desagüe. Pero no lo hicieron para sancionar sino para poner a los locales en contacto con empresas de tratamiento de grasa. Los restaurantes ahora podían vender este desperdicio, ganando un poco más de dinero y contribuyendo a contaminar menos.

Imagen: Trey Ratcliff

Analítica Ágil

Si te interesa la analítica digital, esta presentación de Pere Rovira sobre Analítica Ágil (en Itnig, mayo 2013) no tiene pérdida. Y si no tienes tiempo para el video (es un poco largo) aquí debajo están mis apuntes.

La verdad es que “Agile Analytics” no es una teoría formal, sino más bien una forma de entender la analítica. La cuestión no es sacar muuuuchos datos en esta era de big data, sino sacar pocos datos que valgan la pena. Pierdes menos tiempo y sacas insights más jugosos para lo que realmente importa.

Normalmente los profesionales quieren sacar muchos datos y después la ganancia en euros es proporcionalmente pequeña. Pere recomienda invertir ese embudo: trabajar con pocos datos y procurar tener el máximo impacto posible. Lo fácil es pedir muchas cosas, pero cuantos menos datos trabajemos más nos enfocaremos en ganar sacar lo máximo de ello. La clave está en saber qué es lo que vale la pena analizar.

Para eso primero recopilamos datos sobre los 3 vectores principales del marketing: adquisición, conversión, fidelización. Y con todos estos datos el objetivo es lograr un impacto económico (aumentar la satisfacción de clientes/empleados, aumentar ingresos y/o reducimos costes). Primero necesitamos un objetivo (fijar una meta que se pueda medir, sino no son adecuados para el análisis), de ahí unos KPIs, formular unas hipótesis y finalmente hacer testing. ¡Pero que sea una meta y muchos tests, no al revés!

El mito de la hormiga. No intentes clasificar y encuadrar cómo navegan en tu web los usuarios con herramientas (“Visitors Flow” en GA). Está bien a nivel general, pero introduce la falsa creencia que al saber lo que pasa puedes modificarlo. Y aunque nos diga qué pasa no nos dice el por qué una enseñanza clásica de Avinash. Es más útil usar mapas de calor como CrazyEgg y así entender cómo se comportan los usuarios en un lugar determinado. Podemos sacar insights cómo que no hay suficiente scroll, o que no gusta cómo se presentan las prendas… Para testear estas hipótesis podemos usar herramientas como Optimizely, Visual Website Optimizer u otra que permita hacer A/B testing.

Causa y efecto. “La estadística es como un bikini, porque oculta lo más interesante”, porque trabajamos con medias aritméticas. La media no está mal, pero generaliza demasiado, disfrazando las distribuciones o desviaciones estándar que te pueden decir mucho sobre tus usuarios.

Más vale V en mano que ciento volando. El Big Data se caracteriza por 3 Vs: velocidad, volumen y variedad de datos. Pero el problema es que te obsesionas con el volumen, fijándote en cosas que no tienes y descuidas la V que sí conoces y que es vital: la Velocidad de carga.

Antes de precisión y exactitud, a los datos debemos pedirles inspiración. Datos más cualitativos (en socialmedia medir conversación y amplificación) que cuantitativos, y las encuestas sirven muy bien para esto (iPerceptions, antes llamado 4Q). Y no olvidemos que visualizar es la forma más ágil de analizar. Vale la pena usar herramientas de business intelligence como Tableau, de representación gráfico como Gephi, motion charts, scatter plots…

Un cuadro de mando es un cuadro de mando, no te dice lo que tienes que hacer. No preocupes tanto en consolidar los diferentes sistemas o la pureza de los datos (otra enseñanza de Avinash), con lo que te da Google Analytics ya tienes de sobra.

Not everything that can be counted counts, and not everything that counts can be counted” – Einstein. Tenemos el problema del “dark social”: GA no mide correctamente el tráfico social. Los links que se comparten por email, chat, o algunos clientes de socialmedia, GA los interpreta erróneamente como tráfico directo.

Si no puedes medir, correlaciona. Vivimos en un entorno de multicanalidad, obsesionados con cómo se interrelacionan los distintos canales. Todo eso es importante, pero con los datos que ya tenemos, sin métodos de atribución caros y complicados, con simples correlaciones podemos sacar conclusiones importantes.

Si no tienes recursos, automatiza. Ejemplo: Buffer.

En fin, hay mucha tecnología en todo lo anterior, pero la analítica ágil no es solo tecnología, es un cambio de cultura. Y en las empresas “Los proyectos se desarrollan en torno a individuos motivados. Hay que darles el entorno y el apoyo y confiarles la ejecución del trabajo”. Aunque también depende de si los jefes quieren ser reyes o millonarios (tomar decisiones o simplemente ganar más dinero).

Analítica Web 2.0 – Avinash Kaushik

Avinash Kaushik  es sin duda uno de los mejores referentes de analítica web del mundo. Evangelista de Marketing Digital de Google, emprendedor, ponente en muchos eventos, profesor en varias universidades… Vamos, un maestro en el arte de medir online que hasta a dado nombre a uno de los mejores blogs de analítica web en Español (“¿Dónde está Avinash cuándo se le necesita?, de otra maestra: @sorprendida). El blog de Avinash debe ser el pan de cada día para un analista web y este libro su Biblia.

Cubre prácticamente todo el amplio espectro de la analítica web, y al ser bastante reciente incluye temas candentes como la medición en redes sociales, o cómo analizar el impacto offline en un mundo multi- y omnichannel, entre otros. Escribe de manera simpática, haciendo que resulte muy ameno de leer (me recuerda un poco a Guy Kawasaki en “El Arte de Empezar). Un trabajo muy completo con ejemplos prácticos muy útiles y hasta un CD con recursos complementarios (ojo, en la edición que yo tengo). Si alguien quisiera dedicarse a la analítica web, podría estudiarse este libro atentamente y con un poco de práctica estaría en el buen camino para convertirse en un auténtico “análisis ninja.

Aprender a usar Google Analytics

Me encanta la analítica web y (cómo no) adoro Google Analytics, una herramienta gratuita con increíbles posibilidades para ayudarte a comprender y mejorar tu negocio digital. Para sacar lo máximo del Analytics, Google pone a tu disposición unos videos dónde explican las distintas funcionalidades de este gran servicio. Es un material excelente y es el que se estudia para obtener el ‘Google Analytics Individual Qualification’, el certificado oficial de aptitud en Analytics (con un examen tipo test que no es sencillo y debes sacar 80% para aprobar). Basándome en esos videos he elaborado unos resúmenes, aquí tenéis el primero:

Copyright © 2015 HablarDigital

Theme by Anders NorenUp ↑