[04/06/2013] Big Data es un tema que parece ya haber sido escuchado hace algún tiempo. Eso es cierto, la etapa de evangelización se mantiene vigente, pero podemos considerar que ya hemos pasado de la fase de ‘qué es’ y ‘qué ventajas tiene’, a otra más compleja en la que los proveedores muestran en mayor detalle las herramientas que se han desarrollado para aprovechar la tendencia.
En esa tónica es que asistimos hace unos días al “IBM Big Data Forum”, un evento en que la corporación ya no solo nos ofrecía información sobre lo que representa el big data para las empresas, sino también las herramientas que posee para atacar desafíos específicos. Fue un día de bastante actividad en el Hotel Crowne Plaza Lima. y de ella tomamos un par de exposiciones que representan al discurso que, en general, ofreció IBM.
El almacenamiento

Una de las exposiciones a las que asistimos fue la realizada por Adrian Restuccia, ejecutivo especialista en
storage high end de IBM, quien planteó tener un almacenamiento más inteligente para el
big data.
Luego de presentar la forma extraordinaria en que están creciendo los datos a nivel mundial, el ejecutivo se refirió al big data utilizando la definición que ha establecido la consultora IDC; es decir, big data “una nueva generación de tecnologías y arquitecturas diseñadas para extraer valor de manera económica a partir de grandes y variados volúmenes de datos, habilitando la captura, descubrimiento y/o análisis a gran velocidad”.
Dicho esto, Restuccia presentó lo que denominó una “nube de almacenamiento privada”, o el IBM SmartCloud Virtual Storage Center.
La particularidad de esta solución es que es prácticamente el equivalente a la virtualización de servidores, pero en almacenamiento. Es decir, se ofrece un hipervisor de almacenamiento que ofrece algunas ventajas: virtualiza los servidores físicos generando mayor eficiencia, permite la movilidad transparente de las máquinas virtuales, mejora la eficiencia del trabajo a través de una interfase de administración común, sin importar el tipo de sistema operativo que corre en la máquina virtual o la marca de hardware que se está utilizando.
Lo que se logra con este hipervisor es hacer un pool de recursos de almacenamiento físicos.
Y a la vez, esta forma de administrar los recursos de almacenamiento logra algunas servicios de Tier 1 sin importar qué se tenga físicamente como I/O caching, thin provisioning, compresión de datos en línea, entre otros.
Además, para complementar esta alternativa en el software se presentó una de hardware: IBM FlashSystem Family, es decir, almacenamiento optimizado en unidades flash, con todas las ventajas que esto conlleva, siendo la velocidad -por supuesto- lo más notorio.
Data Warehouse y Business Intelligence

Otro de los temas tocados fue el del
data warehouse y
business intelligence, dos actividades esenciales para sacar provecho de aquello que se haya almacenado del
big data. El encargado de presentar las alternativas de IBM en este campo fue Alex Martínez,
big data sales specialist de IBM.
Martínez en esencia ofreció un panorama de lo que implica el proceso de análisis de los datos. Es decir, el proceso por el cual los datos pasan por una fase de administración, integración y análisis, y a continuación ofreció la alternativa que puede ayudar en estas tareas.
La presentada fue PureData, la integración de hardware, software y base de datos para “eliminar las labores de administración”. Gracias a que con esta solución ya no es necesaria la administración del almacenamiento -porque se convierte en un proceso automático- se puede establecer un mayor foco en los análisis de la business intelligence. Fueron al menos 10 tareas concernientes a la administración del almacenamiento de los datos que quedan en manos del sistema, las que mostró Martínez en su diapositiva.
Otro tanto sucedió con los procesos relacionados a la BI que fueron asumidos y optimizados gracias al uso del IBM PureData Analytics. Los casos de éxito de un par de empresas mexicanas se presentaron como prueba de ello.
Una de las empresas decía “Debido a la tecnología in-database de Netezza, creemos que vamos a ser capaces de generar 600 modelos predictivos por año (10 veces más que antes) con el mismo personal”.
Netezza se encarga de la parte analítica de la solución, mientras que la conocida DB2 se mantiene en la parte transaccional de la misma, explicó el ejecutivo ante una de las preguntas de los asistentes.
Ciertamente, se realizaron más exposiciones que las que aquí reseñamos brevemente, pero éstas nos dan una idea de lo que se pudo apreciar aquel día del foro. Las soluciones que IBM presentó en el evento también abarcaron los campos de la analítica y optimización del negocio, y la administración de la información.
Jose Antonio Trujillo, CIO Perú