Llegamos a ustedes gracias a:



Reportajes y análisis

Tendencias en las tecnologías de análisis del negocio

[23/04/2012] Los avances en las tecnologías de análisis e inteligencia de negocios están permitiendo que los CIO profundicen de forma rápida, económica y móvil en los datos del negocio.
Las tendencias actuales se centran tanto en afrontar los retos de análisis, como en el aprovechamiento de las oportunidades para ideas de nuevos negocios. Por ejemplo, las tecnologías para la gestión y el análisis de grandes conjuntos de datos están llegando al tiempo que muchas organizaciones se están ahogando en datos y tratando de hacer sentido de ello. Sin embargo, muchas de las tendencias de costos y rendimiento en el análisis avanzado significan que las compañías pueden hacer preguntas más complicadas que nunca antes, y proporcionar información más útil para ayudar a manejar sus negocios.
En entrevistas con los CIO, ellos identificaron cinco tendencias de TI que están teniendo un impacto en la forma en que proporcionan los análisis: el aumento de los grandes datos o Big Data, las tecnologías para un procesamiento más rápido, la disminución de los costos de TI para los productos básicos, la proliferación de dispositivos móviles y los medios sociales.
Los grandes datos
Big Data o grandes datos se refiere a conjuntos muy grandes de datos, en particular los no muy bien organizado para caber en un almacén de datos tradicional. Datos de búsquedas en la web, registros de medios sociales y logueos en el registro, así como los datos de la cadena de suministros industriales, sensores de vigilancia y del entorno, hacen que los datos corporativos sean más complejos de lo que solían ser.
Aunque no todas las empresas necesitan técnicas y tecnologías para el manejo de grandes conjuntos de datos no estructurados, el CIO de Verisk Analytics, Perry Rotella, cree que todos los directores de TI deberían estar buscando herramientas de análisis de grandes datos. Verisk, que ayuda evaluar el riesgo de las firmas financieras y trabaja con las compañías de seguros para identificar el fraude en los datos de reclamaciones, obtuvo unos ingresos de más de mil millones de dólares en el 2010.
Los líderes tecnológicos deben adoptar la actitud que una mayor cantidad de datos es mejor y aceptar sus cantidades abrumadoras, indica Rotella, cuyo negocio consiste en "la búsqueda de patrones y correlaciones entre las cosas que no conoce".
Big Data es una tendencia "explosiva", de acuerdo con Cynthia Nustad, CIO de HMS, una firma que ayuda a contener los costos de salud para los programas de Medicare y Medicaid, así como para empresas privadas. Entre sus clientes se incluyen programas de salud y servicios humanos en más de 40 estados y más de 130 planes médicos de Medicaid. HMS ha ayudado a que sus clientes recuperen 1.8 mil millones de dólares en costos en el 2010, y a que ahorren miles de millones más por la prevención de los pagos erróneos. "Estamos recibiendo y siguiendo mucho material, tanto estructurados como no estructurados, y no siempre sabemos lo que estamos buscando en ellos", añade Nustad.
Uno de los más mencionados como tecnología de grandes datos es Hadoop, una plataforma de código abierto para el procesamiento distribuido de datos, creado originalmente para tareas tales como la compilación de índices de búsqueda web. Es una de las llamadas "tecnologías" NoSQL (otras incluyen CouchDB y MongoDB) que han surgido para organizar los datos de escala web de maneras novedosas.
Hadoop es capaz de procesar petabytes de datos mediante la asignación de subconjuntos de datos a cientos o miles de servidores, cada uno de los cuales informa de los resultados al ser recogidos por un planificador maestro. Hadoop también se puede utilizar para preparar los datos para el análisis, o como una herramienta analítica por derecho propio. Las organizaciones que no cuentan con miles de servidores de repuesto pueden comprar un acceso bajo demanda para las instancias de Hadoop de proveedores de nube como Amazon.
Nustad señala que HMS está explorando el uso de las tecnologías de NoSQL, aunque no para sus bases de datos de reclamos masivos de Medicare y Medicaid. Estos contienen datos estructurados y no pueden ser manejados con las técnicas tradicionales de almacenamiento de datos, y no tiene mucho sentido apartarse de la gestión tradicional de base de datos relacional a la hora de abordar problemas para los cuales la tecnología relacional es la solución probada y verdadera, señala ella. Sin embargo, Nustad ve que Hadoop jugará un papel en el análisis de fraude y de los residuos, tal vez el análisis de los registros de visitas de pacientes que podrían ser presentados en una variedad de formatos.
Entre los CIO entrevistados para esta historia, los que tenían experiencia práctica con Hadoop, incluyendo a la CIO de Rotella y Shopzilla, Jody Mulkey, están en empresas que proporcionan servicios de datos como parte de su negocio.
"Estamos utilizando Hadoop para lo que solíamos utilizar el almacén de datos", señala Mulkey, y, más importante, para perseguir "análisis muy interesantes que nunca pudimos hacer antes". Por ejemplo, como un sitio de comparación de compras, Shopzilla acumula terabytes de datos cada día. "Antes, teníamos que probar y partir los datos, lo que era muy trabajoso al tener que lidiar con una gran cantidad de datos", añade. Con Hadoop, Shopzilla es capaz de analizar los datos en bruto y evitar los pasos intermedios.
Good Samaritan Hospital, un hospital comunitario en el suroeste de Indiana, está en el otro extremo del espectro. "No tenemos lo que yo clasificaría como grandes datos", indica el CIO, Chuck Christian. Sin embargo, los requisitos reglamentarios están haciendo que almacene nuevas categorías de datos -tales como registros médicos electrónicos- en grandes cantidades. Sin duda hay un gran potencial para recopilar información de salud de esos datos, comenta, pero que probablemente eso pasará en asociaciones de salud regional o nacional, en lugar de su hospital particular. Es poco probable que él vaya a invertir en nuevas tecnologías exóticas para sí mismo.
John Ternent, CIO de Island One Resorts, agrega que si sus desafíos analíticos son impulsados por grandes datos "depende de cómo es el capital de B y D". Pero él está considerando seriamente el uso de instancias Hadoop en la nube como una forma económica de ejecutar complejos análisis de la cartera de hipotecas para la empresa, que gestiona ocho resorts en toda la Florida. "Esa es una posible solución a un problema muy real que tenemos ahora", agrega.
Los análisis del negocio se vuelven más rápidos
Las tecnologías de grandes datos son solo uno de los elementos de una tendencia mayor hacia una analítica más rápida, señala el CIO de la universidad de Kentucky, Vince Iván. "Lo que realmente queremos es analítica avanzada en un infierno de muchísimos datos", agrega Kellen. La cantidad es menos importante que la eficiencia con que se pueden analizar, "porque lo quiere rápido".
La capacidad de las computadoras de hoy en día para procesar muchos más datos en la memoria, permite resultados más rápidos que cuando se busca a través de datos en el disco, incluso si solo está crujiendo gigabytes de él.
A pesar de que las bases de datos tienen, desde hace décadas, un mayor rendimiento con el almacenamiento en caché de los datos a los que se accede con mayor frecuencia, ahora se ha vuelto más práctico cargar grandes conjuntos de datos en la memoria de un servidor o un clúster de servidores, con los discos usados solo como copias de seguridad. Debido a que la recuperación de datos de los discos magnéticos giratorios es parte de un proceso mecánico, es mucho más lento que el procesamiento en la memoria.
Rotella señala que ahora puede "correr análisis en cuestión de segundos, algo que hace cinco años le tomaba toda una noche". Su empresa hace análisis predictivo en grandes conjuntos de datos, lo que a menudo implica la ejecución de una consulta, la búsqueda de patrones, y hacer los ajustes antes de ejecutar la consulta siguiente. El tiempo de ejecución de la consulta hace una gran diferencia en qué tan rápido avanza un análisis. "Antes, los tiempos de ejecución llevaban más tiempo que la construcción del modelo, pero ahora se necesita más tiempo para construir el modelo que para hacer que funcione", agrega.
Los servidores de bases de datos Columnular, que invierten la tradicional organización de fila y columna a bases de datos relacionales, aborda otra categoría de requisitos de desempeño. En vez de leer registros completos y sacar columnas seleccionadas, una consulta puede tener acceso solo a las columnas de interés, mejorando dramáticamente el rendimiento de las aplicaciones que agrupan o miden las columnas clave.
Ternent advierte que las ventajas de rendimiento de una base de datos en columnas vienen solo con la aplicación correcta y el diseño de la consulta. "Tiene que hacer la pregunta correcta de la manera correcta para que haga una diferencia", señala. Mientras tanto, agrega, las bases de datos en columnas solo tienen sentido para las aplicaciones que deben manejar más de 500 gigabytes de datos. "Tiene que conseguir una cierta escala de los datos antes de que las columnas tengan sentido, porque se basan en un cierto nivel de repetición" para lograr la eficiencia.
Para mejorar el rendimiento de análisis, las cuestiones de hardware también importan. Allan Hackney, CIO del gigante de seguros y servicios financieros John Hancock, está agregando chips GPU -los mismos procesadores gráficos que se encuentran en los sistemas de video juegos- a su arsenal. "La matemática dedicada a las visualizaciones es muy similar a la matemática que se dedica a un análisis estadístico", señala, y los procesadores gráficos pueden realizar cálculos cientos de veces más rápido que una PC convencional y los procesadores del servidor. "A nuestro personal de análisis les encanta este producto".
La tecnología cuesta menos
Junto con el aumento de la capacidad computacional, la analítica también se está beneficiando de la caída de precios de memoria y de almacenamiento, junto con el software de código abierto que ofrece una alternativa a los productos comerciales y ejerce una presión competitiva sobre los precios.
Ternent es un evangelista del código abierto. Antes de unirse a Island One, fue vicepresidente de ingeniería de Pentaho, una empresa open source de inteligencia de negocios, y trabajó como consultor centrado en la inteligencia de negocios y el código abierto. "Para mí, el código abierto nivela el campo de juego", señala, porque una empresa de tamaño medio, como Island One puede usar R, una aplicación de código abierto, en lugar de SAS para el análisis estadístico.
Alguna vez, las herramientas de código abierto solo estuvieron disponibles para la información básica, agrega, pero ahora ofrecen los análisis predictivo más avanzadas. "Ahora hay un reproductor de código abierto continuo, lo que significa que hay herramientas disponibles para cualquiera que tenga el coraje de ir a buscarlas".
Nustad de HMS ve que la economía cambiante de la informática está alterando algunas opciones arquitectónicas básicas. Por ejemplo, una de las razones tradicionales para la creación de almacenes de datos, era poder poner los datos en los servidores junto con el poder de cómputo para procesarlos. Cuando la potencia de la informática era menor de lo que es hoy en día, era importante aligerar las cargas de trabajo de análisis de los sistemas operativos para evitar la degradación del rendimiento de las cargas de trabajo diarias. Ahora, esa no es siempre la mejor elección, señala Nustad.
"Con el hardware y el almacenamiento tan baratos en estos días, puede darse el lujo de exprimir los sistemas operativos para manejar una capa de inteligencia de negocios", agrega. Al tener todos los pasos de la mudanza, cambiar de formato y cargar los datos en el almacén, los análisis construidos directamente en una aplicación práctica a menudo pueden proporcionar respuestas más inmediatas.
Hackney observa, sin embargo, que a pesar de que las tendencias de los precios son muy útiles para la gestión de costos, los ahorros potenciales a menudo se borran por la mayor demanda de capacidad. "Es como correr en su lugar", señala. Si bien el costo de almacenamiento por unidad de John Hancock se redujo un 2% y un 3% este año, el consumo aumentó un 20%.
Todo es móvil
Al igual que casi cualquier otra aplicación, la inteligencia de negocios (BI) también va hacia la movilidad. Para Nustad, BI móvil es una prioridad, ella quiere tener acceso a los informes sobre si su organización está cumpliendo sus acuerdos de nivel de servicio "servidos en mi iPad y no en mi escritorio". Ella también quiere ofrecer acceso móvil a los datos para los clientes de su empresa, para ayudarles a controlar y gestionar los gastos de atención médica. Se trata de "una función de la satisfacción del cliente que no se pedía hace cinco años, pero que se exige hoy en día", señala.
Para los CIO, hacerle frente a esta tendencia tiene que ver más con la creación de interfases de usuario para smartphones, tablets y pantallas táctiles que de sofisticadas capacidades analíticas. Tal vez por eso, Kellen lo desdeña como algo bastante fácil de abordar. "Para mí, eso es algo trivial", indica.
Rotella no creo que sea tan simple. "La informática móvil nos afecta a todos", señala. "El número de personas que realizan trabajos desde dispositivos iPad y otros dispositivos móviles está explotando. Esa tendencia se acelerará y cambiará la forma en que interactuamos con nuestros recursos informáticos en una empresa". Por ejemplo, Verisk ha desarrollado productos para darle a quienes resuelven los reclamos el acceso a análisis en el campo, para que puedan correr las estimaciones del costo de remplazo. Esa es una manera de "aprovechar nuestros análisis y ponerlos al alcance de las personas que lo necesitan", añade.
Lo que lo hace un reto es la forma mucho más rápida en que cambia la tecnología, señala Rotella. "Hace dos años, no teníamos dispositivos iPad. Ahora todo el mundo va por ahí con una". Con dispositivos de múltiples sistemas operativos en juego, "estamos tratando de entender cómo aprovechar al máximo nuestro desarrollo para no estar escribiendo estas cosas tres, cuatro, o cinco veces más", agrega.
Por otro lado, la necesidad de crear aplicaciones nativas para cada plataforma móvil puede estar desapareciendo, ahora que los navegadores de los teléfonos y tablets tienen más capacidades, señala Ternent de Island One. "No estoy seguro de invertir en una aplicación para dispositivos móviles a medida, si simplemente puedo aprovechar una aplicación basada en web para un dispositivo móvil".
Medios sociales en la mezcla
Con la explosión de Facebook, Twitter y otros medios sociales, más empresas quieren analizar los datos que se generan en estos sitios. Nuevas aplicaciones analíticas han surgido para apoyar a las técnicas estadísticas, tales como procesamiento del lenguaje natural, análisis de los sentimientos, y el análisis de redes que no forman parte del conjunto de herramientas típico de inteligencia del negocio.
Debido a que son nuevas, muchas herramientas de análisis de los medios sociales están disponibles como servicios. Un ejemplo destacado es Radian6, un producto de software como servicio recientemente adquirido por Salesforce.com. Radian6 presenta un cuadro de menciones de la marca etiquetados como positivos, negativos o neutrales según los feeds de Twitter, posts públicos de Facebook, entradas y comentarios en blogs, y conversaciones en foros de debate. Cuando se compra por los departamentos de marketing y servicio al cliente que las utilizan, estas herramientas pueden no requerir gran participación de TI. Sin embargo, Kellen de la universidad de Kentucky, cree que hay que prestarles atención. "Mi trabajo es identificar estas tecnologías, ver cómo encajan con la organización en términos de competitividad y empezar a educar a las personas adecuadas", agrega.
La universidad tiene el mismo interés en el seguimiento del sentimiento sobre su marca como cualquier otro negocio, pero Kellen señala que él también puede identificar oportunidades para el desarrollo de aplicaciones específicas a las preocupaciones de la escuela, tales como la retención estudiantil. Por ejemplo, la vigilancia de lo que publican los estudiantes en las redes sociales podría ayudar a que los profesores y administradores sepan con anticipación cuando un estudiante está teniendo problemas académicos, parecido a lo que hace Dell cuando su organización de soporte detecta a la gente que twitea sobre laptops malogradas, señala Kellen. Los desarrolladores de TI también deben buscar maneras de construir alertas generadas por el análisis de medios sociales en las aplicaciones para responder a esos acontecimientos, agrega.
"No tenemos que saber cómo, ni las herramientas, solo salir y extraer cantidades masivas de publicaciones en los medios sociales", señala Hackney. "Pero una vez que tiene los datos, tiene que ser capaz de tener suficiente información sobre los acontecimientos que suceden en la empresa para ser capaz de correlacionarlos". Si bien los esfuerzos de John Hancock en esta área son "nacientes", de acuerdo a Hackney, el prevé un papel para las TI en la correlación de los datos proporcionados por un servicio de análisis social con los datos corporativos. Por ejemplo, si los datos de los medios sociales muestran que los comentarios sobre la compañía en la región central son cada vez más negativos, a él le gustaría ver si la empresa ha realizado cambios en los precios o en su política en esa región para poder explicar esa tendencia.
Encontrar tales correlaciones podría hacer una gran diferencia en hacer que los líderes de la compañía crean en el retorno de la inversión de los medios de sociales, señala Hackney. "En mi sector, todo el mundo es un actuario, todo el mundo está en busca de los números -no dejan todo a la fe".
David F. Carr, CIO.com