Reportajes y análisis - [19/06/2012]
Virtualización, Almacenamiento, Inteligencia de negocios (BI), Gestión, Cloud Computing, Big Data
Hewlett-Packard aprovechó su evento anual, HP Discover 2012, para presentar importantes novedades en materia de optimización de la información, la movilidad y la nube. Durante el evento, HP anunció también nuevas herramientas de deduplicación para su familia StoreOnce de appliances de backup, que aseguran logran un desempeño de hasta 100TB por hora y una recuperación de datos de 40TB por hora.
Noticias - [05/06/2012]
Almacenamiento, Big Data
La Plataforma E-Series mejorada incluye tecnología DDP, Snapshot SANtricity, VMware vStorage APIs y Thin-provisioning, lo que permite una restauración de datos hasta ocho veces más rápida que las arquitecturas tradicionales RAID.
Reportajes y análisis - [04/06/2012]
Big Data
El análisis de los grandes datos tiene su inicio en los grandes proveedores de servicios web como Google, Yahoo y Twitter, los cuales necesitan sacar el máximo provecho de los datos generados por el usuario. Sin embargo, las empresas harán el análisis de los grandes datos para seguir siendo competitivas y relevantes. A continuación cinco puntos clave que todo CIO debe saber sobre big data.
Reportajes y análisis - [25/05/2012]
Estrategias, Big Data
Puede que no haya función corporativa que arroje más datos que el centro de contactos de una empresa. A lo largo de la historia, gran parte del análisis de esos datos ha sido de carácter cuantitativo -las llamadas recibidas, el tiempo promedio de espera, duración de la llamada, la tasa de resolución. Eso está empezando a cambiar. Los centros de llamada corporativos -y proveedores de call center- están adoptando nuevas herramientas analíticas para profundizar en los grandes datos que generan.
Noticias - [17/05/2012]
Big Data
'Genome' está diseñado para permitir que los marketeros ofrezcan campañas más dirigidas
Reportajes y análisis - [03/05/2012]
Almacenamiento, Inteligencia de negocios (BI), Big Data
El proceso de análisis de grandes datos demanda capacidades que por lo general están más allá de los paradigmas de almacenamiento típicos -en pocas palabras, las tecnologías tradicionales de almacenamiento, tales como redes SAN, NAS, y otras no pueden lidiar de forma nativa con los terabytes y petabytes de información no estructurada que vienen con los grandes datos. El éxito con en análisis de grandes datos exige algo más -una nueva manera de hacer frente a los grandes volúmenes de datos, en otras palabras una nueva ideología de plataforma de almacenamiento.
Noticias - [03/05/2012]
Servidor, Fuente Abierta, Big Data
La línea PowerLinux de IBM pasó por un upgrade sustancial el miércoles pasado, cuando la empresa anunció tres nuevos productos integrados y dos servidores específicos para Linux.