Llegamos a ustedes gracias a:



Noticias

IBM acelera el análisis de datos con nuevo algoritmo

[26/02/2010] Los investigadores de IBM han desarrollado un nuevo algoritmo que podría analizar en cuestión de minutos terabytes de datos en bruto para predecir más rápidamente el tiempo y el uso de la electricidad, señaló la compañía el jueves.

El algoritmo matemático desarrollado por los laboratorios de IBM en Zurich, puede ordenar, correlacionar y analizar millones de conjuntos de datos aleatorios, una tarea que podría requerir días a las supercomputadoras para procesar, señaló Costas Bekas, investigador de IBM.
El algoritmo tiene menos de mil líneas de código y tendrá un papel decisivo en el establecimiento de patrones de uso o de tendencias basado en datos recogidos de fuentes tales como sensores o contadores inteligentes, sostuvo el ejecutivo. El algoritmo puede ser utilizado para analizar una creciente masa de datos que mide las tendencias de uso de electricidad, el aire o los niveles de contaminación del agua. El algoritmo también podría desglosar los datos de los mercados financieros mundiales y evaluar la exposición individual y colectiva a los riesgos, afirmó Bekas.
Estamos interesados en la medición de la calidad de los datos, señaló Bekas. El análisis eficiente de los grandes conjuntos de datos requiere de nuevas técnicas matemáticas que reduzcan la complejidad computacional, aseguró Bekas.
El algoritmo combina los modelos de datos de calibración y análisis estadístico que pueden evaluar modelos de medición y relaciones ocultas entre los conjuntos de datos. IBM ha estado trabajando en la investigación por dos años, expresó Bekas.
El algoritmo también puede reducir la carga de los costos de las empresas analizando los datos de una forma más energéticamente eficiente, explicó Bekas. El laboratorio utiliza un sistema Blue Gene/P Solution en el centro de investigación Forschungszentrum Jülich, en Alemania, para validar 9TB de datos en menos de 20 minutos. Para analizar la misma cantidad de datos sin el algoritmo, se hubiera necesitado un día con el supercomputador operando a velocidades máximas, lo cual hubiera aumentado las facturas de electricidad, indicó Bekas.
Según Top500.org, la Blue Gene/P es la cuarta supercomputadora más rápida del mundo a noviembre pasado, con 294.912 núcleos de procesamiento IBM Power que pueden proporcionar un máximo rendimiento de hasta un petaflop.
El enfoque tradicional para el análisis de datos es tener múltiples conjuntos de datos y verlos por separado, sostuvo Eleni Pratsini, director de Ciencias Matemáticas y Computacionales de los laboratorios de investigación de IBM. Sin embargo, el algoritmo compara conjuntos de datos unos contra otros, lo que podría ayudar a las empresas a apuntar hacia tendencias más amplias en áreas específicas, tales como la reducción del riesgo en las carteras financieras.
Las empresas quieren formas más rápidas de generar inteligencia de negocios a medida que una masa de datos inundan los servidores, debido a la expansión de la computación hacia nuevos dispositivos, señaló el ejecutivo.
Ahora que se ha probado que el algoritmo funciona científicamente, el laboratorio de investigación colabora con la unidad de IBM Global Services para utilizarlo en servicios específicos, sostuvo Pratsini. En última instancia, el algoritmo podría dirigirse hacia las aplicaciones de IBM como el software de análisis estadístico SPSS, pero la empresa no proporcionó un cronograma específico para ello.
Agam Shah, IDG News Service