Llegamos a ustedes gracias a:



Noticias

Toda agencia de gobierno necesita una estrategia para Big Data

[26/04/2011] Un reporte del Comité Presidencial de Asesores en Ciencia y Tecnología (PCAST) de los Estados Unidos -que incluyó al Programa Federal de Investigación y Desarrollo en Networking y Tecnologías de la Información (NITRD, por sus siglas en inglés)-, que analiza diversas áreas de tecnología, concluyó que toda agencia de gobierno necesita contar con una estrategia para los Big Data, dado el gran flujo de datos que los Estados actuales deben manejar.

El reporte, Diseñando el futuro digital, agrega que la recolección, gestión y análisis de datos es una preocupación que está creciendo rápidamente en un momento en que el volumen de datos está aumentando exponencialmente, debido a la proliferación de sensores y nuevas fuentes de datos.
El estudio abarcó cinco temas variados, priorizando la explosión de la información y los Big Data -destacando también el incremento en la importancia de la minería de datos, descrita como la transformación de los datos en conocimiento, y del conocimiento en acción.
El grupo de trabajo, formado por catorce miembros, incluye a Stephen Brobst, CTO de Teradata Corporation. Brobst es reconocido por su experiencia en negocios globales y clientes de Gobierno, en la identificación y desarrollo de oportunidades para el uso estratégico de la tecnología. Además, es un presentador regular en los eventos del Instituto de Data Warehousing.
Estamos entrando en la era zetabyte, y no es una exageración decir que toda agencia de gobierno necesita contar con una estrategia para Big Data. Mis colegas y yo coincidimos en que esto es imprescindible, y compañías líderes están actualmente perfeccionando dichas estrategias, señaló Brobst.
Sin embargo, es vital que las agencias gubernamentales actúen de inmediato, teniendo en cuenta que el compromiso de los gobiernos a nivel global es la franqueza y la transparencia de la información, la cual se basa en sistemas poderosos de gestión de datos, que manejan consultas simultáneas y complejas, cuadros de mando extensos y cargas de trabajo que en conjunto deben analizar enormes cantidades de datos desde una amplia variedad de fuentes, añadió.
Big Data es un término referido a conjunto de datos cuyo tamaño está más allá de la capacidad de las herramientas de software utilizadas comúnmente para capturar, gestionar y procesar los datos dentro de un lapso de tiempo tolerable.
Algunos ejemplos de fuentes de Big Data incluyen web logs, sensores de redes, redes sociales, datos detallados capturados de redes de telecomunicaciones, observaciones astronómicas, vigilancia militar, registros médicos, archivos fotográficos y de video.
Los Big Data requieren tecnologías excepcionales para procesar eficientemente grandes cantidades de información. Los progresos de frameworks de procesamiento paralelo masivo (MPP), como compartir bases de datos relacionales, frameworks de programación de MapReduce e infraestructura cloud, son esenciales para aprovechar el valor de los Big Data.
Virtualmente todos los objetivos de los gobiernos requieren hoy mejores y más rápidas decisiones respaldadas por hechos y aportes clave -que deben ser descubiertos al analizar montañas de datos-, expresó Richard Winter, presidente de Winter Corporation. Lo que está en juego es demasiado para los enfoques obsoletos que nos hicieron llegar hasta esta situación. La mayoría de los organismos gubernamentales necesitarán implementar herramientas de bases de datos analíticas, incluyendo plataformas paralelas para data warehouse, MapReduce y otras plataformas. Es crucial que estos organismos usen la herramienta correcta para un determinado requerimiento. Solo una estrategia de datos analítica bien definida y con visión de futuro, los dejará en posición de hacerlo.
CIO, Perú