Llegamos a ustedes gracias a:



Reportajes y análisis

Big Data: 5 predicciones para el 2015

[06/01/2015] En pocos años, las tecnologías de big data han pasado de ser una novedad a ser uno de los principales disruptores de la nueva era digital. Durante el 2014 hemos visto cómo las iniciativas de big data dentro de las empresas se han ido incrementando, pasando de las pruebas a producción. En el 2015, big data tendrá un mayor impulso en la empresa, con más casos de uso -específicamente, casos de uso en tiempo real- señala John Schroeder, CEO y cofundador de MapR, empresa especialista en la distribución de Hadoop.

"Este es el año en que las organizaciones llevarán sus desarrollos de big data más allá de las implementaciones iniciales de batch, e irán hacia su utilización en tiempo real, sostiene Schroeder. "Esto va a estar impulsado por los grandes pasos que han dado los líderes de la industria ya existentes, y otras empresas que muy pronto lo serán, quienes han incorporado nuevas plataformas de big data en sus análisis de datos in-flight para impactar al negocio mientras ocurren los hechos.

Schroeder afirma que cinco acontecimientos importantes dominarán en el 2015.

1. La agilidad de los datos emerge como un tema central.

La agilidad de los datos ha sido uno de los grandes impulsores del desarrollo de las tecnologías de big data, ya que los procesos en torno a las bases de datos legacy y a los data warehouses han demostrado ser demasiado lentos e inflexibles para responder a muchas necesidades del negocio. En el 2015, Schroeder afirma que la agilidad de los datos será aún más importante, a medida que las organizaciones cambien su enfoque de simplemente capturar y gestionar datos a utilizarlos activamente.

"Las bases de datos legacy y los data warehouses son tan costosos que se requieren administradores de bases de datos (DBA, por sus siglas en inglés) para resumir y estructurar los datos, indica. "Los costos directos de los DBA demoran el acceso a nuevas fuentes de datos, y la estructura rígida es muy difícil de alterar en el tiempo. El resultado final es que, hoy en día, las bases de datos legacy no son lo suficientemente ágiles como para satisfacer las necesidades de la mayoría de las organizaciones.

"Los proyectos iniciales de big data se centraron en el almacenamiento de fuentes de datos específicas, añade. "En lugar de centrarse en la cantidad de datos que se manejan, las organizaciones moverán su enfoque hacia la medición de la agilidad de datos. ¿Cómo impacta a las operaciones la capacidad de procesar y analizar los datos? ¿Con qué rapidez pueden ajustarse los datos y responder a los cambios según las preferencias del cliente, las condiciones del mercado, las acciones de la competencia y el estado de las operaciones? Estas preguntas serán factores importantes en la inversión y el alcance de los proyectos de big data en el 2015.

2. Las organizaciones pasarán de los "lagos de datos a las plataformas de procesamiento de datos.

En algunos aspectos, el 2014 fue el año de los "lagos de datos (o hubs de datos), un repositorio de almacenamiento basado en objetos que almacena los datos en bruto, en su formato nativo -ya sea de forma estructurada, no estructurada o semi-estructurada- hasta que estén listos para su uso. Los lagos de datos tienen una fuerte propuesta de valor, ya que representan una infraestructura escalable que es económicamente atractiva (con un menor costo por terabyte) y extremadamente ágil.

Schroeder afirma que los lagos de datos seguirán evolucionando en el 2015; tendrán la capacidad de llevar múltiples motores de cómputo y ejecución hacia el lago de datos para procesar los datos "en el lugar. Eso no solo es más eficiente, sino que crea un único punto de gobierno corporativo y un único punto de seguridad.

"En el 2015, los lagos de datos evolucionarán conforme las organizaciones pasen del procesamiento batch al procesamiento en tiempo real, e integren Hadoop y motores de bases de datos basados en archivos en sus plataformas de procesamiento de gran escala, afirma Schroeder. "En otras palabras, no se trata de tener un almacenamiento a gran escala en un lago de datos para soportar búsquedas e informes más grandes, sino que la gran tendencia en el 2015 se centrará en torno al acceso continuo y al procesamiento de eventos y datos en tiempo real, para tener un constante conocimiento de las cosas y actuar de inmediato.

3. El autoservicio de big data será mainstream.

Los avances en las herramientas y los servicios de big data significan que el 2015 será el año en el que las TI dejarán de ser el "cuello de botella que tienen que enfrentar los usuarios de negocios y los científicos de datos para acceder a los datos, afirma Schroeder.

"En el 2015, las TI adoptarán el autoservicio en big data para que los usuarios de negocio puedan disponer de él, señala el especialista. "El autoservicio permite a los desarrolladores, científicos de datos y a los analistas de datos, realizar la exploración de datos directamente.

Anteriormente, "se hubiese requerido que TI establezca estructuras de datos centralizadas, añade. "Se trata de un largo y costoso paso. Hadoop ha hecho a que las empresas se sientan cómodas con el structure-on-read, en algunos casos de uso. Las organizaciones más avanzadas se trasladarán hacia enlaces de datos en ejecución y lejos de las estructuras centrales para cumplir con los requisitos correspondientes. Este autoservicio acelera la capacidad de las organizaciones para aprovechar nuevas fuentes de datos y responder a las oportunidades y amenazas.

4. Consolidación del proveedor de Hadoop: Los nuevos modelos de negocio evolucionarán.

A principios del 2013, Intel llamó la atención con la introducción de su propia distribución de Hadoop, diciendo que eso lo haría diferenciarse gracias a la adopción de un enfoque desde cero, en el cual Hadoop estaría plasmado directamente en su silicio. Pero, solo un año más tarde, en lugar de eso, Intel abandonó su distribución y se lanzó detrás del proveedor de soluciones Hadoop, Cloudera.

En ese momento, Intel señaló que los clientes estaban sentados en el banquillo esperando a ver cómo se movería el mercado de Hadoop. El número de opciones para Hadoop enturbiaba las aguas. Schroeder cree que la consolidación de proveedores Hadoop continuará en el 2015, a medida que los perdedores descontinúen sus distribuciones y se centren en otras áreas.

"Hoy llevamos 20 años en la adopción de software de código abierto (OSS), lo cual ha proporcionado un enorme valor al mercado, sostiene Schroeder. "Las tecnologías maduran en fases. El ciclo de vida de la tecnología comienza con la innovación y la creación de productos altamente diferenciados, y termina cuando, finalmente, los productos son de consumo masivo. Edgar F. Codd creó el concepto de base de datos relacional en 1969, con la innovación que condujo a Oracle IPO en 1986 y a la comoditización que comenzó con la primera versión de MySQL, en 1995. Así que, históricamente, la madurez tecnología de la plataforma de base de datos tomó 26 años de innovación antes de ver cualquier comoditización.

"Hadoop está en una etapa temprana del ciclo de madurez de una tecnología, con solo diez años transcurridos desde que los innovadores white papers de MapReduce fueron publicados por Google, añade. "La adopción de Hadoop a nivel global y a escala está lejos, mucho más allá de cualquier otra plataforma de datos, a solo 10 años después de lanzado el concepto inicial. Hadoop está en la fase de innovación, por lo que los proveedores que erróneamente adoptaron estrategias 'Red Hat para Hadoop' están saliendo del mercado, el caso más notable es el de Intel y recientemente el de EMC Pivotal.

Schroeder cree que el 2015 será el año de la evolución de un nuevo y más matizado modelo de OSS que combine la innovación con el desarrollo comunitario.

"La comunidad de código abierto es de suma importancia para el establecimiento de normas y consenso, afirma. "La competencia es el acelerador de la transformación de Hadoop, que comenzó como un procesador de análisis en batch y que está pasando a ser una plataforma de datos con todas las funciones.

5. Los arquitectos empresariales separarán el gran hype de big data.

En el 2015 los arquitectos de tecnología de las empresas serán los protagonistas, a medida que su comprensión acerca de todos los conceptos de la tecnología Hadoop mejoran y los dirigen hacia el establecimiento de requisitos mejor definidos y sofisticados para las aplicaciones de big data, incluyendo elementos como la alta disponibilidad y la continuidad del negocio.

"A medida que las organizaciones se mueven rápidamente más allá de la experimentación hacia la adopción real en los centros de datos, los arquitectos empresariales se enfocarán directamente en la ruta de la adopción de big data, indica Schroeder.

"Los líderes de TI serán de vital importancia en la determinación de las arquitecturas subyacentes necesarias para cumplir los SLA, ofrecer alta disponibilidad, continuidad del negocio y satisfacer las necesidades de misión crítica. En el 2014 el ecosistema floreciente alrededor de Hadoop fue celebrado con la proliferación de aplicaciones, herramientas y componentes. En el 2015 el mercado se concentrará en las diferencias entre plataformas y en la arquitectura necesaria para integrar Hadoop en el centro de datos y entregar resultados de negocio.