Llegamos a ustedes gracias a:



Evento

El presente y futuro del Data Center

[22/09/2009] El pasado martes 15, CIO Perú y Common Perú reunieron a los más destacados representantes de las empresas involucradas con el desarrollo de los Data Centers. Durante la reunión, los ejecutivos conversaron sobre la actual problemática que enfrentan estas unidades, como son  el excesivo uso de la energía, la pertinencia de la utilización de herramientas como la virtualización y el cloud computing, la necesidad de ir hacia un data center green y las herramientas necesarias para enfrentar estos desafíos. Todo en medio de un foro, Hacia dónde va el Data Center, que ha dado su primer paso hacia su institucionalización como el punto de reunión de la industria TI.

La mañana del 15 de setiembre fue propicia para el desarrollo de las TI en el país. En el Swissotel se reunieron en torno la convocatoria a nuestro primer foro, denominado Hacia donde va el Data Center, los CIO de las empresas más importantes del Perú con el ánimo de dar respuesta a la pregunta que le daba nombre a la reunión.
Para ello se escucharon a un selecto grupo de expositores del lado de los proveedores de soluciones, pero también a un panel conformado por un representativo grupo de CIO que, como ellos, también se encontraban ávidos de intercambiar sus opiniones con respecto a las exposiciones que en esa mañana se desarrollaron.
La siguiente es una crónica de las exposiciones que se realizaron en el evento, y de los comentarios del panel que se produjo al final de la jornada. Están a su disposición los videos con las conferencias, los archivos con las exposiciones de aquellos proveedores que nos han autorizado a colgarlas, así como la opinión de los panelistas y la sesión de preguntas y respuestas. Los invitamos a escucharlos, así como ver nuestra galería de fotos.
Inicio del martes
Todo se encontraba preparado temprano en la mañana, y poco a poco fueron llegando los miembros del público, en su mayoría CIO, tal y como habíamos deseado, para el welcome coffee con el que iniciamos la jornada. Nuestro primer evento ya se percibía como exitoso tan solo con apreciar a la categoría del público que intercambiaba sus primeras charlas del día mientras esperaba el inicio del evento.
Fernando Grados, director de Dominio Consultores, fue el encargado de 'romper fuegos'. Con su exposición Data Center: lo que nos dice el CIO peruano se encargó de proporcionar al público los resultados de un estudio exclusivo de Dominio para el público presente. Lamentablemente, el carácter exclusivo con el que se brindó el estudio a los asistentes nos impide hacer públicos mayores detalles sobre la presentación del consultor. Basta decir que fue muy bien acogida y generó preguntas que el propio Grados se encargó de absolver posteriormente.
HP: La transformación del Data Center
El segundo expositor fue Hugo Marcelo Bertini, business manager de Data Center Services de HP región MCA, quien inicio su presentación mostrando un video de cinco minutos -de los 20 asignados a todos los expositores- sobre la visión de HP con respecto al Data Center.
Posteriormente, con la exposición propia de Bertini era evidente que la preocupación de HP iba en torno al consumo energético. Dentro de las estadísticas que manejamos, tenemos como resultado que una de las preocupaciones más importantes dentro del centro de cómputo es el consumo de energía, no solo para la parte de los equipos sino también para la parte de refrigeración. La refrigeración debe ser tratada para mejorar el consumo de energía dentro de los centros de computo, refirió el ejecutivo.
Una forma de lograr una reducción significativa de este consumo es la consolidación de los data center. Para ello refirió que su compañía en el 2005 había encargado la consolidación de sus centros de cómputo. Lo que hizo fue consolidar 85 centros de cómputo en solo seis, algo que le supuso una importantísima reducción de costos.
A raíz de esta iniciativa HP, desarrolló dos nuevos centros pensados con la colaboración de una compañía de diseño de centro de cómputos y, desde entonces, se ha abocado al desarrollo de servicios de virtualización y de provisión de hardware.
A partir de su experiencia es que pueden recomendar algunos puntos a tomar en cuenta. Uno de ellos es el análisis de eficiencia eléctrica. La certificación en el consumo eléctrico es esencial, ya que se debe de considerar que por cada dólar que se ponga en el data solo un 33% se gasta efectivamente en los equipos de TI, una estadística que se repitió durante todo el evento. Además, hay alternativas de refrigeración muy interesantes que pueden ayudar. Una de ellas es el pre cool. Dependiendo de las condiciones ambientales del lugar en donde se encuentra el Data Center se puede aprovechar las condiciones de frío y ventilación naturales para enfriar el ambiente.
Finalmente, recalcó que HP tiene un compromiso muy fuerte con el medio ambiente. Su compromiso es tal que compraron a la empresa que les diseñó sus nuevos centros de cómputo, y obtuvieron así 350 nuevos ingenieros para su causa.
Cisco Perú: Unified computing para reducir infraestructura y costos
El segundo expositor fue Nathaniel Berenstein, ingeniero CCIE de Cisco Perú y especialista en Data Center. Desde su perspectiva, una forma de reducir costos e infraestructura es mediante el uso de herramientas como el Unified Computing. Mediante una herramienta denominada Unified Fabric se puede consolidar la LAN y la SAN utilizando como punto de encuentro el servidor.
Con Unified Fabric se puede tener una arquitectura de 10 gigabits Ethernet sobre el cual se puede utilizar ambos protocolos, lo cual trae como consecuencia el uso de menos tarjetas, la mejora de la virtualización y en general el uso de menos componentes y el incremento de la escalabilidad.
De hecho, como señala Berenstein con esta solución se pueden llegar a tener hasta 320 servidores blade los cuales, por su puesto, crecen sobre un número creciente de racks.
La administración esta embebida y se embebe de tal manera que el servidor esta visto como un ente, un objeto, y se crea una capa de abstracción para lograr lo que se llama stainless computing. Ustedes definen al servidor simplemente por su capacidad de memoria, por su capacidad de procesamiento; pero dentro se crea un perfil que va a permitir hacer un aprovisionamiento muy rápido en caso de que necesiten mas potencia o cambiar el servidor, sostiene el ejecutivo.
Berenstein también hizo referencia a la mejora en el uso de las memorias DIMM que se ha logrado con el paso de los años. Por ejemplo, si antes se necesitaban 96GB de memoria, se tenía la opción de lograrla mediante el uso de 12 DIMMs de 8GB, pero esos 8GB de memoria eran muy caros. Ahora lo mismo se puede lograr con 48 DIMM de 2GB de memoria que son más económicos. El ahorro de costo se ha logrado a niveles no disponibles en el mercado anteriormente.
Telefónica: Todo como servicio
Sin duda, la presentación de Richard Wadsworth fue una de las más recordadas por las propuestas que lanzó. Para el gerente de Tecnologías de la Información de Telefónica Empresas el Data Center no solo debe encontrarse en la red, sino que su modelo de oferta ya se encuentra en el terreno de todo como servicio.
Los conceptos de virtualización y de cloud computing llevan el mercado hacia el software como servicio, la plataforma como servicio, y en general hacia el todo como servicio. Con este modelo, por ejemplo, lograron que un cliente obtuviera una reducción de costos del 58%, que presentó como un caso de éxito.
Nuestros data centers no están puestos en la mitad del desierto, sino encima de nuestros nodos de telecomunicaciones, cuando esto es posible; entonces el data center literalmente esta en la red. Si esta en la red el tema de conectividad, disponibilidad, always on, always conected, que tanto nos preocupan, son realidades concretas. Ese es el concepto que nosotros tenemos del data center, sostuvo el ejecutivo.
Ahora, potenciemos eso. Los data centers están unidos, Telefónica es tradicionalmente un proveedor de comunicaciones y puede colocar fácilmente esos data centers en línea. Por ejemplo, en los casos de disaster recovery, la empresa puede usar recursos de almacenamiento en Brasil, o los recursos que también se encuentran en Miami. Eso es el data center del futuro, para Telefónica: la capacidad de computing absolutamente potencializada al colocarla sobre la red.
Global Crossing: Te quiero verde
Mirko Repetti, gerente de Data Center, Seguridad y Outsourcing de Global Crossing Perú fue enfático en la apuesta de Global Crossing por el Green Data Center.
Green Grid hizo una análisis del consumo de energía, y mucho de ella se consume en condensadores o chillers, dependiendo de la infraestructura. Humidificadores y aires acondicionados tienen más del 40% de la energía que se consume en todo el data center. Toda la parte eléctrica representa un poco más del 25%, y solo un 30% es el equipamiento directamente dedicado al servicio que brinda un data center, sostuvo el ejecutivo.
Que se puede hacer entonces. Lo primero es seguir los parámetros que los propios fabricantes de los equipos proponen para medir el desempeño de los equipos. Con ello se puede ver si un equipo es eficiente o no, y señalar qué se puede hacer para mejorar su desempeño.
No hay que descartar opciones como la virtualización de servidores, de almacenamiento que son buenos, pero también generan retos muy grandes, como Repetti vio con un cliente que cambió toda su infraestructura de los equipos clásicos a los blades, con virtualización. Pero el hecho de ir concentrando los blades, originó una concentración de calor, por lo que hay que tener cuidado porque el blade es una buena opción pero acumula mucha energía dentro de un espacio. La estrategia de la virtualización con blades es buena pero hay que tener cuidado con el espacio.
En general, Repetti buscó que los CIO fueran mas concientes de la responsabilidad que tienen hacia el medio ambiente y para ello propuso distintas estrategias de medición del propio data center.
IBM: El crecimiento de la información
El aumento de la información que generan los usuarios se ha duplicado cada año. Estamos hablando de hasta hexabytes en la actualidad. De 2006 a 2016 se calcula un incremento en 10 veces la cantidad de información. La mayor cantidad de información es generada por los usuarios, redes sociales, etc. pero a pesar de que la información la generan los usuarios, quienes tienen que resguardar esa información son las empresas. Las empresas son responsables por el 85% de la información, señaló Esteban Gugliermino, LA System x Brand & Product Manager de IBM.
De acuerdo al ejecutivo, en un centro típico el 50% de la energía no se gasta en los servidores sino que esa energía va a aquellos aparatos que van a mantener encendidos y ventilados a los servidores. Eso no solo impacta en los gastos operativos sino también al tamaño del data center. El costo de construir un data center está relacionado al costo del metro cuadrado.
El 70% de la energía que va al servidor no va a los procesadores sino a todos los componentes dentro del servidor. El procesador gasta solo el 30%, cuando curiosamente lo que busca es el aumento de la performance del procesador. El 80% del tiempo estos servidores están ociosos, y solo un 20% del día estos procesadores están procesando información y solo usando una porción de la energía.
Por un lado la fuerza que esta dando el entorno y por otro lado que tanto lo están haciendo las empresas. Los analistas predicen que hacia el 2012 prácticamente el 80% de las cargas de trabajo van a estar virtualizadas. Se habla de un aumento de varias X de cuantas máquinas virtuales existen en el mundo. Se habla de hasta 10 veces hasta el 2012.
Estamos siendo testigos de un cambio importante. Comenzamos con una consolidación física. Pasamos al tema de virtualización. Pasamos a empresas que están llevando todos estos temas hacia un servicio, pero esta evolución natural nos esta llevando hacia el tema del cloud computing, sostuvo Eduardo Falcone, System x Field Technical Sales Specialist de IBM
EMC: La infraestructura está cambiando
Rolando Gonzáles de director comercial de EMC, se concentró en la evolución de las memorias como un elemento de cambio de la infraestructura.
La infraestructura esta cambiando. EMC hizo un estudio en Estados Unidos que me parece muy interesante, dice que los clientes gastan el 70% de su presupuesto TI simplemente para mantener la infraestructura funcionando, o sea, solo el 30% del presupuesto va hacia algo que le da diferenciación a la compañía. Y de ese 70%, el 60% se gasta en comprar cosas para darle mayor estabilidad a la infraestructura, sostuvo Gonzáles.
Parte de esa infraestructura son los SSD, los discos de estado sólido. Hace un año o poco más los discos flash costaban 40 veces los que costaba un disco de alto desempeño, al cabo de un año cuestan ocho veces, esta es una reducción de 76% en 12 meses.
¿Y por qué es importante? Supongamos que quieren tener un arreglo de 55TB, se tendrían que usar discos de 300GB, tendrían que tener 244 discos. Miren lo que pasaría si usan un nuevo concepto. Clasifican los datos, determinan que datos deben ir en cada nivel de almacenamiento y esos 55TB se podrían construir de la siguiente manera: 32 discos SATA de 1TB, 136 discos de FC y 8 discos flash de 73GB. Con eso he conseguido tener 60% más de IOPS, 28% menos de unidades, 21% menos de consumo de energía y enfriamiento, y 17% más barato.
Por su parte, Rubén Wong, director comercial para Perú de EMC sostuvo: La visión de EMC es hablar del data center virtual, y ya no hablar de hardware y software sino de servicios. Lo que hace la organización es dar servicios a través de la nube. Hablemos de clientes virtuales como las estaciones remotas, no necesariamente PC o dispositivos virtuales. Hablemos de continuidad. De acuerdo a la presentación de Dominio, el gerente aún prefiere el data center propio. Porque tenemos sentido de protección, control, seguridad, y confiabilidad. Pero en la actualidad, al usuario no le interesa donde esta la aplicación sino que funcione, sostuvo el ejecutivo.
El panel
La reacción de los usuarios fue la que presentó el panel conformado por Ricardo Temoche, Gerente de Sistemas, de Alicorp; Ricardo Bustamante, Gerente de División, Sistemas y Organización, BCP; Felipe Roel, Gerente de TI, Banco Central de Reserva; y Eugenio Kollmann, Gerente Corporativo de TI, Hochschild Mining.
En línea con sus principales pensamientos se puede afirmar lo siguiente:
Ricardo Temoche: CIO Perú y Common están en una cruzada por cambiar el rol del gerente de sistemas, del CIO. Quisiera reflexionar si yo fuera Leslie Pierce y dijera voy a cambiar mis discos a fibra canal o discos de estado sólido, ¿me pregunto si le interesará? O si le digo que voy a optimizar mi cadena de abastecimiento para que la satisfacción sea mejor. Le interesará eso o le interesará que Ricardo Temoche se ponga a negociar con IBM, Cisco, si mis discos son de 15 mil RPM.
Con respecto a la estadística que presento Fernando de que nosotros estamos reacios a tercerizar y querer nuestro propio centro de cómputo, quería hacer una invocación a cambiar nuestra mentalidad. HP presentó que habían hecho un trabajo bajando 85 centros de cómputo a seis, logrando grandes beneficios de costos, logrando ir hacia beneficios ambientales. Todas las grandes empresas del país tenemos la responsabilidad de que nuestras empresas sean socialmente responsables y eso implica ser responsables con el medio ambiente.
Ricardo Bustamante: Creo que los proveedores siempre traen alternativas refrescantes y un poco más avanzadas. Suena muy alentador el concepto de cloud computing, pero al momento que hay que pasar cosas por un enlace ya empiezo a atracarme, como voy a hacer eso con un sitio que se encuentra a mil kilómetros de distancia. Ahí todavía hay algunas respuestas que tenemos que buscar de orden práctico.
Creo que los ejecutivos de los bancos nos piden tres cosas: estabilidad operativa, o sea, que funcione todo lo que ofrecemos; capacidad de habilitar rápidamente nuevas capacidades y desarrollos, y me voy a detener un momento en el tema de time to market. Me imagino que eso lo vivimos todos, frente a la comunidad de nuestros usuarios siempre el time to market no es suficiente. El día que podamos hacer el time to market inmediatamente -que es la aspiración de nuestros usuarios-, seguro nos dirán que debimos haberlo pensado antes.
Pongamos el estrés en nuestros proveedores de hacer posible el tema de todo bajo demanda, y seguramente en las conversaciones internas que tendremos en los pasillos le diré a Richard que el enlace que tengo con Brasil, contratado para mi centro de cómputo de respaldo que tengo allá, lo quiero por demanda?
Eugenio Kollman: Yo me preguntaría donde debe estar la organización de TI: ¿delante de la ola o envuelto en la ola, en el día a día? Entonces en este evento en el que estamos hablando de data centers hay un tema fundamental que es la arquitectura, el diseño, la estructura de TI, y la arquitectura de nuestros datos y data center. Este es un tema importantísimo, porque muchas veces el día a día nos gana y no planificamos el largo plazo.
Pero eso depende del tipo de empresa en el que estamos. ¿Es una empresa que tiene una presión tremenda por los costos, necesita agilidad o quiere saber al máximo detalles la intimidad de los clientes? Tenemos que saber en qué tipo de industria estamos, para saber con que tipo de infraestructura y datos queremos trabajar.
En el tema del tamaño del data center coincido en que la primera alternativa es hacer un outsourcing, porque realmente nuestra infraestructura, hablemos claro, si nos comparamos con México o Brasil no tenemos volumen de escala y cada vez los costos de armar toda una infraestructura son más caros. Un data center -considerando redundancia y todo lo que hay dentro de él- es muy costoso. Entonces uno tiene que tener un tamaño mínimo para justificar todas estas inversiones.
Felipe Roel: En el BCR tuvimos una modernización guiados por el plan estratégico institucional, el plan nos permitió clarificar qué necesidades eran las que debíamos atender y encontramos plataformas tecnológicas distintas que podían dar encuentro a estas necesidades. La forma cómo uno puede llevar adelante la implementación es diversa. Ahí ya corresponde a lo que son las evaluaciones costo-beneficio puede ser una contratación directa, es distinto si uno ya tiene algo funcionando o tiene la posibilidad de ver un esquema nuevo. Depende de muchos factores.
Finalmente.
Aunque no lo parezca este solo fue un resumen detallado de lo que se vivió aquel martes. Los detalles profundos de los temas los desarrollaremos en artículos futuros. Por lo pronto, disfrute también de las fotos y los videos, y hágase una idea de lo que fue estar ahí.
José Antonio Trujillo, CIO Perú