Llevando a cabo proyectos de Big Data parte 3

Llevando a cabo proyectos de Big Data parte 3

Anddy I. Cabrera Carela.

En el artículo anterior terminamos de ver lasocho fases correspondientes a la metodología para procesar grandes volúmenes de datos que permite transformar los datos en conocimiento. Si no viste la segunda parte aquí te dejo el link donde la puedes encontrar: http://hoy.com.do/llevando-a-cabo-proyectos-de-big-data-parte-2/

Una vez establecidas las fases de la metodología,es importante saber que ésta tiene, además, cuatro componentes principales.

El principal componente es el de negocio porque lo relevante para un modelo es que sea accionable, aplicable a un problema de la realidad. Un modelo tiene que resolver un problema real, entonces es muy importante que tengamos ese conocimiento experto.

Es fundamental que, desde el principio, tengamos esa visión de la componente de negocio.
Si seguimos utilizando el ejemplo anterior, en este caso un componente de negocio podría ser fidelizar los clientes evitando que se marchen, para mantener los ingresos sin necesidad de realizar nuevas campañas de captación, ya que retener clientes es más barato que captar nuevos, y por consiguiente, es más rentable.

El segundo componente es la tecnología: sin la tecnología, no vamos a ser capaces de procesar grandes volúmenes de información. Las fases en las que este componente tiene mayor influencia son en la de “plataforma tecnológica” y la de “despliegue”. Por ejemplo, si para identificar los patrones de comportamiento previos a una fuga de clientes, necesitamos procesar una gran cantidad de información, pero no sin una plataforma tecnológica que lo soporte a una velocidad suficiente, cuando identifiquemos cuáles son los nuevos clientes “próximos” al abandono, puede ser que sea demasiado tarde y ya se hayan ido.

El tercer componente es el científico: estos modelos construyen aplicaciones utilizando el método científico, es decir, el estudio de algo, por medio de un método riguroso, para obtener resultados, utilizando técnicas analíticas, principalmente estadísticas o de machine learning o aprendizaje automático.

Por lo tanto, es importante que tengamos claro que tenemos que utilizar este componente científico.
Por ejemplo, en nuestro caso de fuga de clientes, será realizar análisis estadísticos para descubrir hechos claves, modelos de comportamiento y tendencias previas al abandono.

Por último, tenemos que tener un componente de comunicación: es fundamental reconocer que, si no somos capaces de comunicar nuestros resultados, si no somos capaces de comunicar ese conocimiento que hemos adquirido de los datos, este perderá valor.

Por ejemplo, imagina que hemos descubierto cuáles son los patrones de comportamiento que indican mayor probabilidad de abandono, pero no somos capaces de mostrar cuáles serán nuestros clientes más propensos a abandonarnos; en ese caso, no sirve para nada haber detectado dichos patrones, ya que no podemos tomar ninguna medida o realizar ninguna acción que lo remedie.

Ahora que ya conoces a grandes rasgos la metodología, es importante que sepas que, para poder implementarla en cualquier organización o en cualquier ámbito, lo relevante es tener en cuenta lo siguiente: Para empezar, tenemos que tener Datos. Si no tenemos datos, no vamos a poder hacer nada.

Lo siguiente es Talento: algo fundamental. Es necesario que contemos con las personas con los conocimientos adecuados y las capacidades adecuadas para poder tratar esta información.

Y, claramente, necesitamos herramientas analíticas y tecnológicas. Si tenemos datos, pero no somos capaces de tratarlos, no somos capaces de tener una plataforma tecnológica suficientemente potente para poder desarrollar esos modelos analíticos, no vamos a poder terminar el trabajo.

Por último, para que todo esto sea una realidad, hace falta una cultura organizativa en la que se premie toda esta visión de negocio y, sobre todo, que se entienda que la ciencia viene a aportar valor.
Espero que esta serie artículos te haya dado una visión general sobre lo que es la metodología de procesamiento de grandes volúmenes de datos, sus componentes y los factores de éxito necesarios para que esta metodología funcione.

Sobre el autor: Anddy I. Cabrera Carela es experto en IA, con un grado certificado por la Universidad de Harvard en Machine Learning. Además, es matemático, programador y estadístico.

Publicaciones Relacionadas