Llegamos a ustedes gracias a:



Noticias

Pivotal busca simplificar la construcción de 'Business Data Lakes'

[07/04/2014] El concepto de data lake (lago de datos), que algunas veces se llama enterprise data hub (hub de datos empresarial), es seductor.
El lago de datos es la zona de aterrizaje de todos los datos de su organización (estructurados, no estructurados y semiestructurados). Un repositorio central en donde todos los datos son ingestados y almacenados en su fidelidad original. Todas sus cargas empresariales, desde el procesamiento batch y el SQL interactivo hasta las búsquedas empresariales y la analítica avanzada, son atraídas a este sustrato de datos.
En un esfuerzo por simplificar este proceso y hacer tan fácil como sea posible el despliegue de un lago de datos, Pivotal anunció hoy la Pivotal Big Data Suite, un paquete de software, soporte y mantenimiento de suscripción anual que trae la Pivotal Greenplum Database, el almacén de datos distribuidos en tiempo real Pivotal GemFire, Pivotal SQLFire (una capa de SQL para el almacén de datos distribuidos en tiempo real), Pivotal GemFire XD (SQL in-memory sobre HDFS), el motor de queries paralelos sobre HDFS Pivotal HAWQ y la distribución Hadoop Pivotal HD.
Hemos ensamblado las piezas para que los clientes puedan comenzar a dedicarse a esta arquitectura de lago de datos empresarial, sostuvo Joshua Klahr, vicepresidente de product management de Pivotal. Hasta ahora, el proceso de compra fue muy complicado para nuestros clientes porque el precio era diferente entre los diferentes productos.
Estamos lanzando un modelo de precios de una suite de big data, añade Klahr. Es una licencia tipo todo lo que pueda comer con una sola unidad de medida, todos los activos que necesita para construir un lago de datos.
Esencialmente, señala el ejecutivo, uno compra la Pivotal Big Data Suite en núcleos. Como parte del acuerdo, uno obtiene la capacidad de desplegar la distribución Hadoop de Pivotal, Pivotal HD, en un número ilimitado de núcleos.
Los núcleos comprados como parte de la suite pueden luego ser usados para desplegar otros productos de propósito definido de Pivotal sobre Hadoop cuando la organización vea que es conveniente.
Una organización puede comprar 500 núcleos de la Pivotal Big Data Suite y puede utilizar todos esos 500 núcleos para Greenplum Database, o usar 250 para Greenplum DB y 250 HAWQ. Más aún, esos núcleos pueden cambiarse a las varias tecnologías que se encuentran en la suite si se requiere, sin necesidad de modificar la suscripción.
Hace que el proceso de compra sea realmente simple, señala Klahr. Pueden desplegar un cluster virgen de Hadoop tan grande como quieran. Donde comenzamos a obtener valor es cuando el cliente comienza a desplegar servicios sobre ese Hadoop. No vamos a cobrarle un pago por licencia para almacenar datos. Vamos a cobrarle un pago por licencia cuando comience a obtener valor al analizar esos datos o a hacer operativos esos datos.
La suite se encuentra disponible en acuerdos a dos o tres años.
Thor Olavsrud, CIO (EE.UU.)