Llegamos a ustedes gracias a:



Reportajes y análisis

La reunión dinámica de los centros de datos

[03/07/2012] La semana pasada se llevó a cabo uno de los eventos más completos sobre data centers que se hayan realizado en el Perú. Datacenter Dynamics congregó a 18 expositores en una feria abierta al público, y estuvo compuesta por 16 exposiciones que se dividieron en dos tracks para tratar los diversos temas que se pueden encontrar alrededor del centro de datos.
Entre los temas que se trataron figuraron algunos que desarrollaron la problemática de la infraestructura, así como otros que se enfocaron en las ventajas del monitoreo de estos espacios tecnológicos. Fue una extensa jornada que duró todo un día y de la cual extraemos un par de conferencias que nos llamaron bastante la atención.
La primera se denominó Los primeros data centers certificados en la región, realizada por Carlos Morard, director para América Latina de Aceco TI. La segunda fue Gestión integral del centro de datos. El próximo gran reto, que fue desarrollada por Camilo Vidal, director de Estrategia y Desarrollo de Negocios para Latinoamérica de APC by Schneider Electric.
A continuación las dos presentaciones.
Lo que son los centros de datos
En el principio de los tiempos (tecnológicos) los centros de datos podían ser comparados con los homo sapiens humanos. Fueron los primeros indicios de lo que posteriormente serían los centros modernos que conocemos en la actualidad; pero, al igual que el hombre, tuvieron una prehistoria y una evolución.
Los centros de datos fueron creciendo y necesitaron de un ambiente especial para ellos, algo protegido, una condición que se disparó cuando los centros de datos pasaron a tener la condición de alta disponibilidad, un status que, a su vez, se reforzó cuando estos lugares comenzaron a tener conexión con Internet, y tener relaciones con otros centros de datos.
Esto ha conformado lo que denominamos la nube, una entidad que aunque parezca gaseosa se hace tangible en todos los centros de datos que la conforman y que, como cualquier otra instalación, consumen energía y pueden presentar fallas. La nube, por tanto, ha hecho más necesario vigilar no solo el desempeño de los centros de datos, sino también su buen funcionamiento a nivel estructural.
Entonces si definimos un data center mas moderno y más a tono de acuerdo a lo que la demanda latinoamericana nos está pidiendo, este es un centro de datos que tenga un nivel de redundancia Tier III, porque el nivel de inversión de capital y operación hace que ese sea el estándar más conveniente para nuestra realidad, que puede o no estar certificado, sostuvo Morard.
Este nivel ofrece una mezcla saludable entre proteger la información y estar disponible de acuerdo a lo que el negocio necesita.
Pero cuando se habla de centro de datos, se habla de un genérico que debería ser más específico; Morard, sin embargo, distingue dentro de esta gran familia tres integrantes fundamentales.
El primero son los centros de procesamiento de datos que, en términos cuantitativos conforman más del 90% de la muestra de América Latina. Estos centros son los que se encuentran dentro de los edificios corporativos, en los cuales no más del 5% de la superficie total es un centro de datos. Sin embargo, ese centro de datos es el cerebro operativo de la compañía.
La categoría siguiente es la de los propios centros de datos, los cuales son definidos como grandes instalaciones pensadas para dar servicios. Son magnitudes distintas, perfiles de usuarios diferentes y con prácticas distintas.
La última categoría son los de los centros de datos donde se encuentran agencias gubernamentales de seguridad o de servicios públicos. Aquí la administración del centro de datos incluye la posibilidad de afrontar un problema legal por la pérdida de la continuidad del servicio o por la pérdida en la integridad de los datos que reciba.
Por eso, los invito a no usar la palabra data center como un promedio que nivela estas tres categorías, porque ello nos llevaría a extrapolar algunos principios técnicos de manera riesgosa o indebida, agregó el expositor.
La gestión del centro de datos
Otro de los expositores fue Camilo Vidal y básicamente su exposición trató sobre la gestión del centro de datos. El expositor, en primer lugar, dejó en claro que el centro de datos no solo se trata del área blanca donde se encuentran los racks, los UPS, los servidores y los aires acondicionados, sino también la infraestructura que soporta a estos dispositivos, y que en ocasiones puede ocupar hasta tres veces el área blanca.
Es decir, hay una cantidad de equipos que deben monitorearse y que corresponden a la infraestructura que soporta al área blanca, como los grupos electrógenos, chillers, subestaciones eléctricas, torres de enfriamiento, sistemas de seguridad, etcétera.
Es aquí en donde Vidal introdujo el concepto de DCIM (Data Center Infraestructure Management). El DCIM es un sistema que recopila y gestiona información sobre los activos del centro de datos, utilización de recursos y situación de la operación.
La información es distribuida, integrada, analizada y aplicada en formas que ayudan a los gerentes a cumplir con sus objetivos de negocio y optimizan la operación del centro de datos.
El DCIM se encarga del monitoreo centralizado de la infraestructura, pero además ayuda en el soporte de la toma de decisiones y gestión de la información; es decir, se encarga de la gestión de los activos, el planeamiento, el cambio y la gestión de la configuración, y la gestión de la energía.
El DCIM es, en términos simples, una herramienta que ayuda al encargado de la infraestructura a disponer de los elementos necesarios para responder a los cambios en el centro de datos (el área blanca) que es soportado por esa infraestructura.
En el mercado ya existe una oferta de soluciones DCIM. Éstas, por lo general, en dos: suite providers y non-suite providers. Los primeros proveen una solución integral que tiene la capacidad de gestionar activos, realizar el monitoreo ambiental y de la energía, y proporcionar reportes y análisis de información.
El segundo grupo tiene una oferta que, en realidad, conforma una sola parte del conjunto de actividades que se desarrolla en un DCIM y, por tanto, requieren integrarse con otros sistemas para proveer una solución integral.
Básicamente, de acuerdo a Vidal, una suite debería estar integrada por herramientas de monitoreo remoto de la energía, monitoreo del aire acondicionado de las instalaciones, monitoreo de la energía de las instalaciones y herramientas para las operaciones de la infraestructura.
El ejecutivo también señaló que en la actualidad se pueden reconocer hasta cinco niveles de madurez en el DCIM. El primero de ellos es un nivel básico en el que no existe la integración y se realiza un monitoreo básico, provisto por los equipos. En este nivel se encuentran el 95% de los centros de datos.
Un segundo nivel es el reactivo, en el cual existe un software instalado para monitorear el ambiente y el equipo de energía que se usa. Con él se tiene la capacidad de ajustar la demanda de enfriamiento. Un 80% ha llegado a este nivel.
Un tercer nivel es el proactivo. En él se realiza un seguimiento de la ubicación, características y estado de la operación y el equipamiento del centro de datos. Se tiene información de la energía y el ambiente para reducir riesgos y el desperdicio. Solo un 30% de los centros de datos han alcanzado este nivel.
Un cuarto nivel de madurez es el optimizado. En él existen múltiples subsistemas de TI e infraestructura integrados, se utilizan modelos de datos para realizar análisis predictivos, se realiza la gestión del servicio y se cuenta con múltiples vistas que se optimizan en tiempo casi real. Se estima que solo un 5% de los centros de datos trabajan en este nivel.
Finalmente, se tiene un quinto nivel, el automatizado, en el que el software integrado ajusta el comportamiento del centro de datos y los recursos de acuerdo con las reglas y los requerimientos del servicio. Actualmente, ningún centro de datos ha alcanzado este nivel.
Jose Antonio Trujillo, CIO Perú