La evolución de la Inteligencia de Negocio (BI) en la empresa y la academia

8 septiembre, 2016

En la UOC llevamos tiempo impartiendo cursos sobre Business Intelligence, Business Analytics y Big Data. ¡Ya más de 10 años! Esto nos da una visión de cómo han evolucionado las necesidades de las organizaciones respecto al análisis de los datos y las competencias que necesitan los profesionales.

En la última década, hemos pasado de sólo disponer de la inteligencia de negocio y el data warehouse como las herramientas fundamentales para entender el rendimiento de nuestra organización a un nuevo escenario flexible, políglota, complejo, escalable y automatizado que busca empujar la transformación digital de la organización.

Todas estas estrategias y tecnologías buscan, en definitiva, capacitar a todo el mundo para tomar decisiones informadas y competir de forma diferente (como ya comentamos en dos entradas anteriores: La nueva forma de competir (I) y La nueva forma de competir (y II)).

Hagamos un poco de retrospectiva. Parafraseando a Donald Rumsfeld, There are things we know that we know and things we know that we don’t know. Es decir, el punto de partida de una organización (para con el dato, claro) es validar hechos y responder preguntas conocidas para la gestión de la empresa o institución. Estamos hablando, por ejemplo, de poder responder: qué hemos vendido, cuál es nuestro beneficio, quiénes son nuestros clientes, cómo nos compran, etc. Para este tipo de preguntas la inteligencia de negocio ha sido la pieza angular sobre la que nos hemos apoyado.

En este tipo de análisis, tradicionalmente, se ha empleado la combinación de un data warehouse para el almacenamiento de la información con fines análiticos y una herramienta para el análisis de dichos datos, como por ejemplo Pentaho, IBM Cognos, Oracle Business Intelligence Suite o Tableau.

Sin embargo, vivimos tiempos convulsos. El dato ha crecido en complejidad, lo que conocemos como Big Data, y necesitamos de nuevos enfoques no solo para identificar lo que no conocemos, sino para incluso responder a las preguntas básicas de una organización.

Esta complejidad se ha traducido en la creación de nuevas tecnologías para el almacenamiento y el procesamiento del dato. A saber, batch processing (para almacenar y procesar grandes volúmenes por lotes), streaming processing (para la ingestión y el análisis de datos en tiempo real) y NoSQL (para representar la riqueza en formato de los datos, facilitando el almacenamiento de datos en formatos que van más allá de las tradicionales tablas o representación tabular).

Estas tecnologías se combinan formando ecosistemas o plataformas, como ya hemos discutido anteriormente en este blog. Actualmente, las dos plataformas dominantes en el mercado son Hadoop y Spark. Ambas son proyectos de la Apache Software Foundation, y por lo tanto, son proyectos de código abierto en los que colaboran gran cantidad de expertos de distintas áreas de conocimiento. Ambos ecosistemas intentan dar soporte a todo el proceso de gestión y análisis del dato, integrando procesos que van desde la gestión de los datos (como por ejemplo HDFS en Hadoop) hasta análisis avanzados mediante algoritmos de Machine Learning distribuido (como la librería MLib de Spark o la componente Apache Mahout). Ambos ecosistemas están evolucionando a un ritmo frenético, produciendo nuevas versiones e incorporando nuevas herramientas para acelerar, mejorar y ampliar al conjunto de herramientas y técnicas disponibles.

Imagen: Evolución componentes Hadoop. Fuente: Cloudera
Imagen: Evolución componentes Hadoop. Fuente: Cloudera

E incluso ahora ya debemos tener la mirada puesta a lo que va ser una realidad en los siguientes años como nuevos frameworks (como Apache Flink o Apache Beam), Machine Learning, Deep Learning, Inteligencia Artificial, Data Science o GPU Computing.

En definitiva, el análisis de datos está en evolución y el impacto dentro de las organizaciones es cada vez mayor. Y es necesario que los programas de formación en esta área sean tan flexibles como las necesidades de la organización y su evolución.

Este es un esfuerzo importante porqué supone establecer unos procesos de revisión continua para poder ajustarse a las nuevas realidades. En línea con nuestra propuesta del año anterior, la presente edición de nuestro Máster de Inteligencia de Negocio y Big Data (MBI) pone foco en la Analítica de Datos, Big Data y Data Science en sus programas de posgrado y especialidades.

Como en ediciones anteriores, el programa es modular y procuramos que cada especialidad y posgrado puedan ser autocontenidos y cubrir las necesidades de estudiantes que buscan una formación más corta en un ámbito concreto.

Si deseáis más información sobre el máster y los programas de Inteligencia de Negocio podéis encontrarla en este enlace y, si queréis contactar con un asesor especializado o con alguno de nosotros, podéis completar este formulario.

Jordi Casas-Roma es doctor en informática por la Universitat Autònoma de Barcelona (UAB, 2014) y profesor en los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC, 2009), donde es responsable de asignaturas relacionadas con los sistemas Big Data, las bases de datos y la minería de datos. Desde 2010 pertenece al grupo de investigación KISON (K-ryptography and Information Security for Open Networks). Sus intereses de investigación incluyen temas relacionados con la privacidad de los datos, la minería de datos y los sistemas Big Data.

Josep Curto es colaborador docente del Máster en Inteligencia de Negocio y Big Data (MiB) de la UOC. Es además Director de Delfos Research, empresa especializada en investigación de los mercados de Business Intelligence, Business Analytics y Big Data.

(Visited 316 times, 1 visits today)
Autor / Autora
Comentarios
Deja un comentario