Llegamos a ustedes gracias a:



Noticias

AWS introduce herramienta para la integración de datos

[03/12/2012] Amazon Web Services lanzó Data Pipeline, una nueva herramienta diseñada para hacer más sencillo para los usuarios la integración de los datos almacenados en varios lugares separados y analizarlos.
Además de analizar Date Pipeline, AWS también anunció dos nuevos servicios que podrían ser ideales para procesar big data y hacer analítica. Ambos anuncios se produjeron en el segundo y último día de la primera conferencia de usuarios de AWS en Las Vegas, llamada AWS re: Invent.
Estas novedades se lanzaron luego de que AWS anunciara el día de ayer Redshift, una herramienta de data warehousing de nube. Data Pipeline tiene por objetivo tomar los datos almacenados en Redshift, o en los otros servicios de almacenamiento de AWS, como DynamoDB -la herramienta de bases de datos NoSQL de la empresa- o su Simple Storage Service (S3), y manipular los datos para lograr una administración más sencilla y una exposición más sencilla ante las herramientas de análisis.
Data Pipeline tiene una interfase gráfica tipo jalar y soltar que permite a los usuarios manipular y extraer insights de los datos almacenados en la nube de AWS o en sus propias instalaciones. Por ejemplo, durante una demostración los ejecutivos mostraron cómo se puede configurar una base de datos DynamoDB para replicar de manera automática la información en S3 o en alguna herramienta de inteligencia de negocios. Esto realmente tiene por objetivo ser un servicio web de peso ligero para integrar conjuntos de datos separados, señala Matt Wood, gurú de Big Data de AWS.
El servicio complementa las opciones de almacenamiento e inteligencia de negocios de AWS. A inicios de este año AWS lanzó Glacier, un servicio de almacenamiento de largo plazo. En su conferencia para usuarios esta semana AWS anunció que su servicio S3 ahora puede alojar más de mil millones de archivos, y Redshift fue lo resaltante del anuncio de AWS en el primer día de la conferencia. AWS también ha lanzado recientemente una sección Big Data de su AWS market, que es una serie de aplicaciones para inteligencia de negocios que se encuentran optimizadas para correr en la nube de AWS.
Además de las noticias sobre Data Pipeline, AWS también anunció dos nuevos tipos de instancias para su servicio Elastic Cloud Compute (EC2), que apuntan específicamente a ayudar a los usuarios a procesar grandes cantidades de datos. Cluster, el nombre de uno los tipos de instancia de gran memoria, viene con 240GB de RAM, y 2x 120GB en SSD de espacio de disco respaldado. Werner Vogels, CTO de Amazon.com, afirma que estos tipos de instancias son ideales para la analítica de bases de datos in memory de gran escala. El segundo tipo es una opción de gran almacenamiento, hs1.8xlarge, que viene con 117 GB de RAM y 48TB de espacio de disco. Estas noticias se producen tiempo después de los anuncios de otros nuevos tipos de instancias que la empresa lanzó hace tan solo unas semanas atrás, y que también apuntaban a las cargas de trabajo de cómputo de alto desempeño.
Brandon Butler, Network World (EE.UU.)