Llegamos a ustedes gracias a:



Reportajes y análisis

¿Virtualización en el horizonte?

Cuidado con la sobrecarga del servidor

[25/02/2010] Mientras la virtualización se introduce cada vez más profundamente en el entorno corporativo, llegando a abarcar incluso aplicaciones de misión crítica y de uso intensivo de recursos, los ejecutivos de TI comienzan a asimilar una valiosa lección: no hay que pecar de optimistas con las proporciones de conversión del servidor físico al virtual.  

Aunque tal vez los proveedores de virtualización todavía insistan en  promocionar las bondades de una implementación de 20, 50 o incluso 100 máquinas virtuales (VM, por sus siglas en inglés) en una sola máquina física; los administradores de TI y los expertos de la industria ya saben que semejantes proporciones son peligrosas en los entornos de producción y pueden causar problemas de performance o, peor aún, cortes de energía.
"En los entornos de pruebas y desarrollo, las compañías podrían colocar más de 50 máquinas virtuales en un solo host físico, pero si se trata de aplicaciones de misión crítica o uso intensivo de recursos, esa cantidad tiende a reducirse hasta apenas 15", indica Andi Mann, vicepresidente de investigación de Enterprise Management Associates Inc., con sede en Colorado.
En un estudio realizado en el 2009 entre 153 organizaciones con más de 500 usuarios finales, EMA descubrió que, en promedio, las empresas alcanzaban tasas de consolidación de 6:1 para aplicaciones como ERP, CRM, e-mail y bases de datos.
La diferencia entre la realidad y las expectativas, ya sea por la propaganda del proveedor o por temas de ROI internos, puede ser fuente de problemas para los equipos de TI. Esto se debe a que la tasa de consolidación afecta prácticamente todos los aspectos de un proyecto de virtualizacion -presupuesto, capacidad y aprobación-. "Si empezamos un proyecto de este tipo con falsas expectativas en mente, los conflictos surgirán tarde o temprano", advierte Mann.
En efecto, una sobreestimación de la proporción del paso de lo físico a lo virtual puede traducirse en la necesidad de más servidores de hardware, espacio para racks, capacidad de refrigeración y consumo de poder, todo lo cual tiene un precio. Peor aún, los usuarios podrían verse afectados por el mal funcionamiento de las aplicaciones. "Si una compañía calcula que solo va a necesitar 10 servidores para su proyecto de virtualización, pero al final resulta que en realidad necesita 15, esta diferencia podría tener un impacto significativo en el costo general de la consolidación al punto de generar un agujero presupuestal", precisas Charles King, presidente y analista principal de la consultora Pund-IT Inc., con sede en California.
¿A qué se debe este desfase entre las expectativas sobre la virtualización y la realidad? King considera que, por ahora, muchas compañías están abocadas a virtualizar aplicaciones no muy sofisticadas, de poco uso y menor transferencia de datos, como las de desarrollo, pruebas, login, servidores de impresión y archivos. "Si se trata de aplicaciones de menor rango o que se encuentran en la frontera de la red, y que no requieren alta disponibilidad, podemos apilar docenas en una sola máquina", continúa.
Bob Gill, analista de TheInfoPro Inc., comparte esa opinión. "En un principio, se virtualizaban sistemas que tenían una tasa de utilización de menos de 5%. Era el tipo de aplicaciones que podía colgarse por una hora sin que nadie se viera afectado", recuerda.
Pero ese no es el caso cuando se aplica la virtualización a aplicaciones de misión crítica o que hacen un uso intensivo de los recursos y, según algunos analistas, los proveedores de la tecnología se han tomado su tiempo para explicar esta realidad a sus clientes. 
Lo cierto es que la tasa de consolidación cambia considerablemente cuando se trabaja con aplicaciones que tienen promedios más altos de utilización y mayores riesgos de seguridad, así como una performance superior y mayor demanda de disponibilidad. "Esas aplicaciones tendrán que competir por ancho de banda, memoria, CPU y almacenamiento", subraya King. Debido a esta pugna por los recursos del servidor, las aplicaciones altamente transaccionales que han sido virtualizadas experimentarán embotellamientos de la red y perjuicios en su rendimiento, inclusive en las máquinas con procesadores de dos quad-core.
A continuación, cuatro consejos para evitar la sobrecarga.
1. Empiece por un análisis de capacidad
Para combatir este problema, los equipos de TI tienen que actuar con la cabeza fría y bajar a la realidad las expectativas de todo el mundo. El mejor punto de partida: un análisis de capacidad, recomienda Kris Jmaeff, especialista de sistemas de seguridad de la información de la agencia de gobierno Interior Health Authority, con sede en British Columbia.
Hace cuatro años, el data center interno de Health estaba creciendo a un ritmo muy veloz. Hubo mucha presión para virtualizar el entorno de producción compuesto por 500 servidores a fin de que soportara un host de servicios, que incluía DNS, Active Directory, servidores Web, FTP y una serie de aplicaciones de producción y servidores de bases de datos.
Antes de comenzar, Jmaeff usó las herramientas VMware para llevar a cabo un profundo análisis de capacidad destinado a monitorear la utilización del hardware. (Herramientas similares se pueden encontrar en Cirba, Hewlett-Packard, Microsoft, PlateSpin y Vizioncore, entre otros.) En vez de revisar su entorno de hardware pieza por pieza, usó el concepto de pool de recursos. "La planificación de capacidad debe concentrarse en los recursos que un servidor puede aportar al pool virtual", explica Jmaeff.
Por el momento, el equipo ha logrado consolidar 250 servidores -50% del total- en 12 hosts físicos. Y aunque la tasa promedio de data center que maneja Jmaeff es de 20:1, para los hosts que alojan aplicaciones más demandantes tiene que aplicar tasas mucho más bajas, o tratar de balancear las aplicaciones que consumen más recursos.
Jmaeff usa una combinación de VMware vCenter e IBM Director para monitorear cada VM a fin de detectar indicios de algún desbalance en este sentido, como podrían ser algunos picos en el uso de RAM y CPU o una degradación del rendimiento. "Hemos tenido que poner aplicaciones aquí y allá, y ajustar nuestras tasas de conversión a la demanda de recursos del servidor para crear una carga de trabajo más equilibrada", señala. Si hiciera falta, sería sencillo clonar servidores y distribuir rápidamente la carga de aplicaciones, agrega. 
"Estamos gratamente sorprendidos con nuestras tasas de consolidación pero eso se debe a que nos dimos el trabajo de examinar la carga en la memoria y el CPU, y de evaluar las cargas de trabajo de los servidores físicos", concluye Jmaeff.
2. Monitorear continuamente la performance
El equipo de TI del proveedor de servicios web Network Data Center Host Inc., con sede en California, comprendió rápidamente que cuando se trata de virtualizar aplicaciones de misión crítica, no se puede considerar solo un RAM. "Inicialmente, sin embargo, calculamos que con un solo RAM disponible podíamos hacer que 40 clientes pequeños compartieran un servidor físico. Pero nos dimos cuenta de que para las aplicaciones de mayor demanda, no es cuestión del RAM, sino del I/O (input/output)", indica Shaun Retain, CTO de la empresa.
La proporción de 40:1 tuvo que reducirse a 20:1, confiesa. Para llegar a esa meta, el equipo ha desarrollado un panel de control que permite que los clientes se logueen y vean cómo están manejando sus máquinas virtuales las lecturas, escrituras y el uso de espacio de disco, así como otras actividades que puedan afectar el rendimiento. Además, NDC Host usa herramientas de monitoreo propias para supervisar que estas proporciones no se vean perjudicadas por un pico repentino en el tráfico de una sola VM. 
3. Evalúe la estabilidad de las aplicaciones
King afirma que las empresas también deben realizar pruebas rigurosas a sus aplicaciones de misión crítica que han sido virtualizadas, tanto antes de su implantación como después de la misma. "Hay que estar seguros de que en términos de memoria y ancho de banda de red, cada aplicación se mantiene estable en todo momento. Por ejemplo, si sabemos que una aplicación es especialmente solicitada en cierto periodo del año, nos conviene estabilizar las tasas para poder tenerla disponible", aclara.
Gracias a la evaluación, los equipos de TI también pueden determinar cuáles son las cargas de trabajo virtual que mejor convivirán en un host físico. "Hay que descartar la posibilidad de que un servidor físico esté corriendo varias VM con la misma carga de trabajo. De lo contrario, si todos son servidores web, competirán por los mismos recursos al mismo tiempo, distorsionando la tasa de consolidación," señala Nelson Ruest, coautor del libro Virtualization: A Beginner's Guide (Virtualización: guía del principiante) y fundador de la consultora Resolutions Enterprises, con sede en British Columbia. En cambio, El personal de TI debe verificar que las cargas de trabajo sean heterogéneas, y que haya un balance adecuado de acuerdo a los periodos de uso más intenso y las demandas de recursos.
Ruest también advierte que los equipos de TI no deben olvidar los recursos extra que los servidores host necesitan para poder soportar no solamente sus propias VM, sino también para aceptar la carga de trabajo de un host defectuoso. "Si corremos todos los servidores a 80%, no podremos soportar esa redundancia necesaria", indica.
La mayoría de organizaciones tendrán que dedicarle por lo menos un mes a los tests de capacidad y a la planificación para determinar la tasa apropiada de servidor físico a virtual para su entorno, finaliza Ruest.
4. Guíese por las experiencias de los demás
Para terminar, Mann -de EMA- aconseja a los equipos de TI que frecuenten grupos de usuarios o asistan a grandes conferencias anuales, como VMworld  de VMware o Synergy de Citrix, para conocer gente que tiene entornos de aplicación semejantes. "La mayoría de asistentes están deseosos de compartir información sobre sus entornos y sus experiencias", asegura. En vez de confiar únicamente en el proveedor, busque casos de la vida real para estar al tanto de lo que ha funcionado y lo que no en las organizaciones que tienen perfiles parecidos a la suya. "De esa manera aumentarán sus posibilidades de fijarse expectativas reales".
Sandra Gittlen, Computerworld