Llegamos a ustedes gracias a:



Reportajes y análisis

Consejos para hacer crecer un proyecto de analítica de datos

analytics big data

[12/09/2016] El Nuevo jefe de científicos de datos de The U.S. Environmental Protection Agency compara la adopción de la analítica de big data en la agencia con la adopción temprana del iPhone en el 2007. Los adoptadores tempranos "no sabían exactamente qué era, pero querían usarlo porque percibieron el valor, comenta Robin Thottungal.

Muchos líderes de innovación sienten lo mismo. IDC pronostica que el mercado de big data y el negocio de analítica tendrá un crecimiento anual compuesto de 23,1%, desde casi 122 mil millones de dólares de ganancias a nivel mundial el año pasado, a 187 mil millones de dólares para el 2019.

La mayoría de adoptadores de big data y herramientas de analítica están probablemente esperando ayudar a sus organizaciones a que sean empresas impulsadas por conocimiento. Pero ellos van a enfrentar varios retos para poder llegar a cumplir esta meta, como la dificultad de acceder a los datos necesarios, la necesidad de sistemas de cómputo más poderosos, y la tarea de generar entusiasmo en los usuarios respecto a una tecnología cuya propuesta de valor no ha sido probada.

Aquí tenemos algunos testimonios desde las trincheras, así como consejos para el desarrollo de la infraestructura de analítica.

Confiar en los datos, no en el instinto

En VMware, los equipos de planeamiento de ventas solían usar procesos manuales, hojas de cálculo y "presentimiento para establecer las metas de los cuatro mil representantes de ventas y 200 miembros del personal de operaciones de ventas a nivel global, señala Avon Singh Puri, vicepresidente de aplicaciones y plataformas empresariales de TI. La compañía necesitaba una estrategia de mercado y una herramienta de automatización de ventas lo suficientemente flexible para manejar los matices de un mercado local.

Así que el proveedor de nube, software de virtualización y servicios, se dispuso a energizar sus procesos de ventas con datos y un sistema basado en analítica. Puri y su equipo desarrollaron una capacidad de desarrollo de modelos multidimensional, reuniendo datos provenientes de CRM e investigadores de mercado externos, administración de datos maestros, ERP y sistemas de almacenamiento de datos empresarial.

La nueva plataforma usa un almacén de datos de una empresa existente construida en el sistema Greenplum de Pivotal Software, que realiza agregación y opera analítica rápida en volúmenes enormes de datos. Entonces, los datos agregados van al desarrollo de modelos de negocio y herramienta de planeamiento de ventas Anaplan.

Mover los datos desde el almacén a modelos presentó retos -empezando con el desempeño del sistema. "El modelo se estaba demorando horas y horas en operar, comenta Puri. "Así que construimos una capa en el medio, basada en la solución de administración de decisiones operacionales de IBM.

Hoy en día, los usuarios de negocios tienen una manera -entre el almacén de datos y la herramienta Anaplan- de administrar qué condiciones deberían ser aplicadas a los datos que irán dentro de la herramienta de modelos, y de esta manera controlar la velocidad del desarrollo de modelos. Los usuarios pueden hacer ajustes en las condiciones por su cuenta y realizar un análisis de posibilidades. "Nosotros intentamos permitir tanto el autoservicio como sea posible, de esta manera TI no tiene que administrar cada cambio pequeño que necesita realizarse, explica Puri.

Actualmente, el equipo de ventas de VMware puede analizar el equivalente a tres años de datos para ver cómo se desempeñaron los grupos en relación a las metas, y determinar planes futuros. Un modelo en su herramienta de análisis integrada en la memoria contiene 5,5 mil millones de celdas de datos, señala Puri. El proceso de planeamiento de ventas de VMware ha sido reducido de ocho semanas a cuatro, la precisión de las cuotas ha aumentado de 65% a 70%, y las disputas de territorio han caído un 30% como resultado de mejores capacidades para el análisis de posibilidades.

El consejo de Puri: Incentive las inversiones que ya ha realizado en el almacén de datos. "Las sinergias que conseguimos con los datos existentes y con la arquitectura también las conseguimos entre la velocidad y el procesamiento -esa base para construir la solución fue mucho mejor que si hubiésemos comenzado de cero, anota.

Poblando los datos a través del crowdsourcing

En el 2013, BNY Mellon tuvo la visión de un sistema de analítica que pudiese rastrear el recorrido de un pedazo único de datos desde el minuto en el que ingresa a su organización hasta su ciclo de vida entero, tal como una compañía de reparto puede rastrear el proceso de repartición -desde el momento en que un paquete es recogido hasta el momento en que es entregado, junto con cada paso del proceso.

Digital Pulse, el componente de big data y analítica del NEXEN Digital Ecosystem de BNY Mellon hace justamente eso. La plataforma captura datos de todas las líneas de negocio, las almacena en un solo lugar, después aplica visualización, analítica predictiva y aprendizaje de máquina para analizar datos. Las unidades de negocio usan los resultados para mejorar los procesos y el desempeño, así como la experiencia del cliente.

"Hoy en día, la analítica está incluida en nuestro trabajo diario, señala Jennifer Cole, directora administrativa de experiencia del cliente en BNY Mellon. Tres habitaciones de control, por ejemplo, están equipadas con monitores enormes que muestran los balances de efectivo minuto a minuto alrededor del mundo con cada canal de compensación donde BYN Mellon es miembro. "Eso nos permite ver los datos en tiempo real mientras estos van siendo creados. Eso es algo que no podíamos hacer antes, anota Cole.

Capturar tipos disparejos de datos de 100 mercados en 35 países fue una tarea temprana bastante abrumadora. Pero los líderes del equipo la simplificaron esencialmente recurriendo al crowdsourcing para la ingesta de datos, añade Cole. Un pequeño equipo gobernante escribió instrucciones para la selección y preparación de datos, y las enviaron a cada unidad de negocio. Los usuarios siguieron las instrucciones y le dijeron al equipo gobernante qué datos querían ingresar al sistema. El equipo revisó las solicitudes para asegurar que los datos propuestos estuviesen en el formato correcto "y que iban a aportar valor, y después la carga fue automatizada, anota.

"Cuando esparce esa tarea entre 50 mil personas a nivel global y 13 mil tecnólogos, eso lo hace mucho más viable, señala Cole -aunque el proceso tomó aproximadamente un año.

Aun con el aporte de los accionistas, la adopción sigue siendo uno de los retos más grandes. El sistema de la analítica BYN Mellon no despegó "hasta que pusimos resultados visuales en las manos de los usuarios comenta Cole. Hoy en día, 13 mil empleados usan la plataforma, junto con 3.500 usuarios externos. Más de 1.4 mil millones de "eventos de datos son almacenados cada mes, y 124 aplicaciones han sido implementadas.

El consejo de Cole: "Haga lo que sea necesario para acortar el circuito de retroalimentación. Ponga todos los elementos visuales que pueda en frente del usuario final o experto en el tema, para que después pueda recapitular.

El arte de la persuasión de los datos

Los líderes de innovación podrían enfrentarse a una gran batalla cuando estos tengan que persuadir a algunas áreas para que compartan sus datos. En algunos casos, "las personas no quieren permitir acceso a los datos porque obtienen algún beneficio de poseerla o temen ser avergonzados por ellos, señala Tom Soderstrom, jefe oficial de tecnología e innovación en TI del Jet Propulsion Laboratory de la NASA en Pasadena, California.

Soderstrom convenció a los dueños de los datos para que los compartieran dándoles un adelanto de los resultados esperados a través de prototipos. Por ejemplo, anota, "nosotros queríamos descifrar dónde terminarían las personas cuando finalizara uno de nuestros proyectos. Estábamos buscando hojas de tiempo de recursos humanos, títulos y códigos de proyecto a través del tiempo. Estos datos eran confidenciales, y sus dueños no querían compartirlos.

Así que Soderstrom acudió donde el CIO, alguien que apoyaba el proyecto, quien estuvo de acuerdo en compartir datos solo del personal de TI que trabajaba en el proyecto. "Ahora teníamos una subdivisión de datos para analizar y construir un reporte de muestra, indica. Después de ver el reporte, añade, el accionista dijo "'Esto es exactamente lo que estoy buscando -¿cómo puedo conseguir esto para el resto de JLP?' Yo respondí, 'Concediéndonos acceso a los datos'. La analítica visual fue clave para comenzar, y después seguimos con la analítica predictiva y prescriptiva.

Hoy en día, los titulares de los datos de JPL están motivados a compartir. Por ejemplo, Soderstrom señala que los grupos de naves espaciales "ahora tienen acceso directo a 30 mil millones de puntos de datos con los que pueden crecer, [analizar] patrones, buscar mensajes o comparar naves espaciales una con otra -cosas que antes eran imposibles.

Soderstrom tiene este consejo para crecer y para la analítica de infraestructura: "Primero, encuentre el argumento de negocio junto con un desarrollador apasionado y un usuario del negocio. Escriba una propuesta de una hoja con lo que espera conseguir, y después realice un prototipo rápidamente -algo que puedan ver. "Los datos de recursos humanos tienen el potencial más grande para mostrar valor rápidamente, añade. Hoy en día JPL incluye a científicos de datos en las unidades de negocio. "Ellos entienden el tema principal de sus áreas y pueden responder con rapidez, indica Soderstrom, pero también están "federados flojamente y trabajan juntos.

Construir una comunidad de practicantes de analítica

El viaje de EPA en la analítica de datos comenzó cuando la agencia se cambió de procesos manuales a reportes electrónicos y empezó a usar sensores para capturar datos ambientales, como medidas relacionadas a la calidad del aire, agua y tierra. Thottungal, el primer jefe de científicos de datos, fue contratado en setiembre del 2015 para crear conocimientos en base a todos los datos. En menos de ocho meses, el construyó una plataforma viable de analítica usando un enfoque común para las nuevas compañías -innovando rápidamente y aprendiendo de los errores.

Thottungal toma un enfoque doble respecto a las escalas. "Tengo científicos de datos viendo todas las nuevas plataformas y tecnologías como Google, Facebook, Twitter y LinkedIn y preguntando cómo podemos reforzarlas para cumplir nuestra misión, señala. "No sabemos exactamente cuál es el valor, pero sabemos que estas tecnologías pueden ayudarnos a hacer algo.

Él también está trabajando con aproximadamente 10 grupos dentro de EPA que son adoptadores de nueva tecnología muy conocidos y quienes creen que la analítica proporcionará valor. "Ellos están viniendo a mí y ya están dispuestos a darme los datos, recursos y personas, para poder aprender, comenta Thottungal. "Tengo personas de la agencia entrenando con mis científicos de datos, porque saben que encontrarán valor haciéndolo.

Actualmente, él ha construido una comunidad de aproximadamente 200 practicantes de analítica que discuten y comparten sus actividades de analítica semanalmente. "Quiero ver a ese grupo madurar y convertirse en un ecosistema entre ellos mismos, señala, "para que puedan ayudarse uno al otro.

Stacy Collett, Computerworld (EE.UU.)