Siguiendo el marco de ideas desarrolladas en torno a la "Measurement Week" organizada por la International Association for Measurement and Evaluation of Communication (AMEC) del 15 al 19 de septiembre, este artículo incide de la mano de uno de los participantes destacados, Jesús Bélmez (Insight Manager de ACCESO), en el fenómeno del big data como fuente de información estratégica, y se centra en su valor de uso estratégico y en sus límites metodológicos.
En el proceso de la llamada mercantilización del mundo, el big data o datos masivos supone un instrumento específico que permite la extensión del análisis sistemático de toda la información y la comunicación relevante para las empresas más allá del registro de datos de cualquier corporación, focalizándose en los datos que fluyen en internet, esté en las redes sociales o en buscadores. Preguntamos a Jesús Bélmez (Insight Manager de ACCESO) sobre el big data.
Víctor Cavaller (VC): ¿Cuál es el uso efectivo que se hace del big data?
Jesús Bélmez (JB): La producción de datos en volúmenes masivos es uno de los hechos fundamentales de nuestro tiempo. Si atendemos a la perspectiva de las industrias que hacen uso de esa información, según los resultados del estudio Big Success With Big Data encontramos que en el 94% de las empresas consultadas el big data se había utilizado para identificar nuevas fuentes de ingresos y en el 89% para desarrollar nuevos productos o servicios.
La información es poder y, en el caso de las empresas, disponer de información sobre sus clientes es imprescindible para su supervivencia. Básicamente porque la regla que dice que “captar un nuevo cliente resulta más caro que retener al que ya tienes” continúa vigente.
VC: ¿És un nuevo fenómeno o la evolución de algún fenómeno ya existente?
JB: El análisis de grandes cantidades de información no es un fenómeno nuevo, hace unos años lo conocíamos por minería de datos o data mining. El aspecto verdaderamente novedoso es el volumen de datos con el que podemos trabajar, por la cantidad de información que generamos y la huella que dejamos. El fenómeno big data implica la necesidad de guardar volúmenes ingentes de información que se almacenan en dispositivos o en la nube. El coste de su almacenaje ha descendido de forma notoria propiciando la democratización del fenómeno (pensemos en cuantos “gigas” de información tenemos en casa, en mi caso algunos “terabites“).
VC: ¿Cuáles son los otros aspectos relevantes del big data?
JB: El otro aspecto relevante es la reducción del espacio necesario para almacenar la información. Estrechamente vinculado al punto anterior, la verdadera riqueza está en la cantidad de información que recogen esos datos, los denominados metadatos. Otro aspecto fundamental es el de la privacidad de los datos, pero eso es un debate que trasciende a esta entrevista. En resumen, conocer a los consumidores, tanto hoy como ayer, sigue resultando imprescindible. La ventaja es que hoy tenemos mucha más información sobre ellos. Igual que en el pasado, estos datos tienen que ser tratados con técnicas estadísticas multivariables y analizados por expertos que sepan extraer insights relevantes y accionables.”
En una reciente entrevista a Michael I. Jordan (20 de octubre del 2014), profesor de la Universidad de California, Berkeley, una de las más respetadas autoridades mundiales en aprendizaje (machine learning) y autor de la introducción del 2013 National Research Council Report Frontiers in Massive Data Analysis expresaba las mismas reflexiones de Jesús Bélmez, así como similares preocupaciones a las que se observaban en el espíritu final del AMEC Submit 2014.
Jordan advertía de la necesidad de regular las expectativas del big data y lo hacía con la conocida expresión “having billions of monkeys typing... one of them will write Shakespeare”. Y también comenta lo siguiente: “Si no tengo principios, voy a construir miles de puentes sin ninguna ciencia real, muchos de ellos caerán, y acontecerán grandes desastres. Del mismo modo aquí, si la gente usa datos e inferencias sin ninguna preocupación sobre los márgenes de error, la heterogeneidad de los datos y su contexto, noisy data, sampling pattern, entonces se harán un montón de predicciones, y habrá alguna probabilidad de resolver ocasionalmente algunos problemas reales, pero sobre todo habrá una probabilidad muy elevada de tomar decisiones desastrosamente”.
Aquí es donde estamos actualmente. Las nuevas tecnologías y en especial el uso del big data al servicio de las marcas es un foco de grandes expectativas para la planificación estratégica empresarial. Aún así, en la explotación de grandes volúmenes de datos hay que fundamentar con rigor científico las metodologías de análisis para proporcionar respuestas razonables considerando los márgenes de error en los resultados obtenidos para la toma de decisiones.
El valor añadido que puede conferir la medición y la evaluación de la comunicación mediante la explotación estadística de grandes volúmenes de datos requiere de una metodología sistemática basada en una definición clara del niveles, modos y procesos analíticos universalmente implicados en los fenómenos o ámbitos a estudiar, así como la definición del alcance y de los límites de este análisis dependiendo de los objetivos pretendidos y de los recursos informativos disponibles.
Para saber más:
Cita recomendada
CAVALLER, Víctor. Big data: uso estratégico y límites metodológicos. COMeIN [en línea], marzo 2015, núm. 42. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n42.1521
Profesor de Información y Comunicación de la UOC
@vcavaller