Por Alvaro Rattinger
email [email protected]
twitter @varu28
Las redes sociales han sido una bendición para las estrategias de mercadotecnia, con ellas empresas chicas y grandes han logrado competir por la atención del consumidor en igualdad de circunstancias. Hay que agregar que su uso sigue en las etapas primarias, la mayoría de los estrategas las utiliza para propagar mensajes y algunos más avanzados para escuchar las conversaciones con el fin de encontrar oportunidades para sus esfuerzos comerciales.
Sin embargo, el futuro de las redes sociales y marketing está ligado a la fusión de Big Data, web semántica y modelos de predicción. El problema central es que la mayoría de los que ejecutan estrategias no tienen el tiempo para aprender estos complicados terrenos de la estadística y por otro lado, los recién egresados rara vez encuentran este nivel de preparación en la aulas. La salida más evidente es invertir en herramientas que permitan este nivel de análisis sin tener que entrenar de nuevo a todo el departamento de marketing.
A través de modelos y sistemas de big data es posible analizar grandes volúmenes de datos con el fin de entender mejor lo que sucede en nuestro mercado e inclusive predecir las preferencias futuras de un cliente en particular. Ejemplos sobran pero son poco evidentes, casi cualquier búsqueda en google o amazon alimenta un motor de predicción basado en plataformas de big data que les permitan a dichas empresas crear respuestas más personalizadas. Alguna vez sostuve una discusión de este tema con un Data Scientist de Etsy.com y me resumió el reto en una frase “sólo hay que crearlo y ver subir las ventas”. Si bien la respuesta es simple las consecuencias y requerimientos son mucho más complejos. De inicio se requiere un entendimiento profundo de lo que este tipo de modelos implican en infraestructura e inversión y segundo comprender de donde extraer la información de la empresas.
El reto de los datos
Todos tenemos acceso a un cúmulo importante de datos, pero rara vez los vemos juntos. Un ejemplo de esto son los reportes de ventas, seguramente todos nos enfrentamos a hojas de cálculo del ventas de un mes en particular, pero rara vez se nos entregan 36 meses de cifras de ingresos consecutivos y concatenados. Las razón por la que no vemos datos en esa escala es por lo poco práctico de su análisis, seguramente será imposible abrir el archivo en un excel. Allí comienza el problema, al ver una serie de datos que se limita a 30 días será imposible hacer conclusiones estadísticas sobre el comportamiento de nuestros clientes.
Lo mismo sucede en redes sociales, la mayoría de las herramientas gratuitas que son tan preferidas por algunos community managers se basan en el “Rest API” de twitter. Si no se sabe a que me refiero hay un claro indicador del problema al que aludo. Estas herramientas basan sus conclusiones y análisis en una muestra del 1% de los datos de twitter, su límite son 1,500 tweets o 7 días de información, lo que suceda primero. Es evidente el problema, no es posible basar una estrategia en una muestra de información tan pequeña.
El costo de medir Big Data
Al medir grandes volúmenes de datos lo primero que viene a la mente es el costo del ejercicio, tan sólo herramientas de este tipo en redes sociales cuestan entre 2,500 y 8,000 dólares al mes, eso no fluye las series de datos de tu empresa, ni cifras de ventas, logs de servidores por mencionar algunos. Esto no quiere decir que las empresas pequeñas están perdidas, la opción es recurrir a ere tipo de herramientas pero a una escala menor y que cobren a partir del volumen de información requeridos.
Opciones como Big Query o Fusion Tables de Google requieren inversiones iniciales muy pequeñas y sirven como herramientas para explorar el potencial de implementar una estrategia de mercadotecnia basada en datos. También se pueden comprar los datos directamente de twitter y Facebook a través de terceros a precios razonables –si se sabe filtrar correctamente–
En el futuro los mercadólogos y profesionales de todas las disciplinas tendrán que invertir tiempo en analizar sus bases de datos de manera integral y cruzar la mayor cantidad de información posible.