Llegamos a ustedes gracias a:



Reportajes y análisis

Una propuesta atractiva, pero no exenta de riesgos

Virtualización de servidores

[06/10/2008] Ciertamente, la virtualización de servidores ofrece beneficios irresistibles a las empresas, pero también puede ocasionarles complejos quebraderos de cabeza. Entre los primeros cabe destacar el ahorro de aparatos hardware en el centro de datos —y el consiguiente ahorro de espacio- la agilización de las cargas de trabajo, una mayor flexibilidad en la recuperación ante desastres, la reducción de costos, y, por ende, la disminución de las emisiones de carbono que perjudican a nuestro planeta. Todas estas ventajas tienen, no obstante, un precio, que puede llegar a ser muy alto si la planificación no es la adecuada.

En el camino hacia la virtualización existen algunos obstáculos difíciles de superar y que la empresa debe conocer y prever de antemano. Un tropezón podría llegar a arruinar cualquier proyecto de esta naturaleza. Sin duda, le resultará traumático el darse cuenta repentinamente de que la planilla de TI de su empresa no está preparada para llevarlo a cabo y requiere una importante formación al respecto, por ejemplo. O quizá se lleve una sorpresa desagradable al no haber previsto que le llevaría al menos un mes tomar el control de su entorno servidor para poder empezar a trabajar en su transformación. También podría verse obligado a gastar dinero extra para cubrir algunos costos ocultos o comprar nuevo equipamiento, porque -sí, así es- para lo que se supone un proyecto de consolidación servidor, probablemente necesitará al principio adquirir nuevas máquinas. E incluso si consigue apañárselas para salir airoso de estas y algunas otras dificultades, lo más probable es que, al menos en algunos momentos, se sienta confundido ante los numerosos -y, a veces, contradictorios- reclamos de liderazgo en rendimiento de los diferentes suministradores de virtualización.
Más allá del jaleo mediático
Probablemente existe un exceso de márketing en los discursos de los suministradores de este tipo de tecnologías. Bajando a la realidad, podría decirse que, en rigor, el rasgo esencial de la virtualización de servidor consiste en romper el matrimonio tradicional entre el hardware y el software (en este caso, entre el sistema físico y el software de sistema operativo), y en permitir, como consecuencia, que un único servidor físico hospede a muchos servidores virtuales con sistemas operativos diferentes.
Los beneficios de ello derivados acercarán a la empresa a lo que cualquier responsable TI consideraría el nirvana informático, una de cuyas características es, sin duda, la consolidación de servidores. Los propios suministradores se han dejado seducir por la idea. Por ejemplo, IBM ha trasladado la carga de trabajo de sus 3.900 servidores a 30 mainframes System z9 virtualizados que corrían el sistema operativo Linux, un cambio con el que espera reducir su consumo energético en nada menos que un 80%. Este porcentaje se traducirá en el caso de IBM en ahorros de más de dos millones de dólares en energía. Por su
parte, NetApp asegura haber conseguido consolidar 343 servidores en 177 y redujo 50 sistemas de almacenamiento a diez aplicando tecnologías de virtualización.
Realmente el mercado está inundado de casos de éxito relacionados con la virtualización de servidor, y el ritmo con que se producen aumenta cada día. Y los beneficios por ella prometidos están teniendo un claro reflejo en la industria. La firme apuesta del mercado por estas tecnologías hizo que la unidad de virtualización de EMC, VMware, adquiriera un valor de casi mil millones de dólares en su salida al mercado bursátil. Citrix Systems, que en diciembre del 2007 se hizo con el suministrador de virtualización servidor XenSource, se apresuró a presentar ya en marzo XenServer 4.1, la primera versión de este hipervisor desarrollada tras la compra. Por su parte, la firma de investigación de mercado Gartner ha definido lo señalado como la tendencia más importante en el ámbito de servidores hasta el 2012. Y hasta Microsoft ha demostrado su elevado interés por este negocio con el lanzamiento de su hipervisor (o gestor de máquina virtual) Hyper-V, que compite ya directamente con las ofertas de VMware, líder indiscutible en la actualidad, y Citrix.
Pero más allá de la fiebre de virtualización que inunda el mercado, lo cierto es que la virtualización de servidor cambia desde sus fundamentos más profundos la apariencia y el funcionamiento de los centros de datos. Y ninguna gran transformación es fácil.
Pueden no conseguirse los esperados ahorros en hardware
Una de las mayores ironías de la virtualización de servidor consiste en que muchas empresas esperan conseguir ahorrar con ella grandes cantidades de dinero desde el principio, cuando, como se ha apuntado, la realidad es muy diferente. A menudo les exigirá al principio gastos adicionales. Esto se debe a que la virtualización de servidor demandará ineludiblemente dos cosas: almacenamiento compartido y servidores potentes, ricamente configurados y equipados con chips de memoria basada en hardware del tipo de algunos de los ofrecidos por AMD e Intel.
Incluso si ya cuenta con este tipo de servidores, no podrá evitar cierta inversión derivadas de las peculiares exigencias del nuevo entorno que planea introducir. Las cuestiones de interoperatividad de servidor, por ejemplo, frustrarán muchas jornadas de los trabajadores implicados en proyectos de virtualización. Por poner un caso, no se puede mezclar plataformas AMD e Intel en el mismo cluster ESX (VMware), como explica Chris Wolf, analista de Burton Group. Resulta imposible mover una máquina virtual entre ellos sin reiniciarla.
Algo parecido ocurre con las redes de área de almacenamiento (SAN). No todas las SAN soportan un entorno virtualizado. Además, el ancho
de banda existente en la empresa quizá resulte de pronto insuficiente para satisfacer las demandas de un número creciente de servidores virtuales, lo que obligará a terminar gastando dinero adicional en nuevos servidores, conmutadores y otros equipamientos TI. Y, lo que es peor, los costos de actualización pueden llegar a eclipsar casi todos los ahorros iniciales derivados de los servidores que se hayan logrado eliminar mediante la consolidación, como advierte el consultor y colaborador de InfoWorld Test Center, Matt Prigge.
Cuando la virtualización de servidores empezó a ganar adeptos, los observadores de la industria pensaron que el mercado de servidores podría entrar en una etapa difícil, debido a la previsible reducción en la demanda de equipos. Después de todo, como se ha dicho varias veces, la virtualización permite consolidar un mayor número de aplicaciones en uno menor de servidores, preferiblemente en aquellos ya existentes en la empresa. En un principio pareció que los expertos tenían razón: Gartner cree que la virtualización llegó a reducir el mercado de servidores x86 en un 4% durante el 2006.
Pero pronto se hizo evidente, según Doug Dineley, editor ejecutivo de InfoWorld Test Center, que, para virtualizar, se necesitaba estandarizar rigurosamente el hardware de la granja virtual, por lo que muchas plataformas servidor debían ser sustituidas por otras. De hecho, el mercado de servidores no ha perdido su fuerza, como demuestra el hecho de que el año pasado se vendieran ocho millones de nuevos servidores a nivel mundial, un 6,7% más que en el 2006, de acuerdo con las cifras de la consultora IDC.
En cualquier caso, la mayoría de los responsables de TI corporativos abordan la estandarización hardware y la virtualización servidor lentamente, sin prisas, aprovechando por lo general los ciclos normales de sustitución de las máquinas. Y la introducen, además, experimentando en áreas no críticas -como los servidores de impresión- antes de llevarla a las aplicaciones de correo electrónico y a las bases de datos corporativas. Se trata de un enfoque extremadamente cauto, según John Humphreys, analista de IDC, quien augura que no empezaremos a ver realmente el impacto de la virtualización en el crecimiento de las entregas de unidades servidor hasta transcurridos dos, tres o cuatro años.
Un reto difícil: conseguir profesionales adecuados
Los cambios tecnológicos no son, por otra parte, la única exigencia imprevista que la virtualización impondrá en la empresa. IDG Research Services, unidad hermana de InfoWorld, entrevistó a finales del año pasado a 464 empresas para conocer sus experiencias con la virtualización. El 44% de ellas señaló la formación y la falta de
profesionales con las habilidades adecuadas como el reto más difícil de resolver, seguido de asuntos relacionados con los sistemas de licencias de software, la escalabilidad y el rendimiento, y la complejidad.
Por tanto, no espere que su planilla TI tenga todas las respuestas necesarias en los proyectos de virtualización. Le llevará al menos un mes el conseguir tan solo una comprensión precisa de las cargas servidor actuales y de los picos de demanda; un conocimiento, por otra parte, imprescindible para tomar la decisión adecuada sobre qué servidores pueden y deben virtualizarse. En las pequeñas empresas con solo un puñado de empleados TI, quizá sea incluso necesario contratar -¡otra sorpresa!- un caro consultor altamente cualificado para llevar a cabo la planificación de las capacidades. Si no lo hacen, el proyecto podría resultar en un absoluto fracaso.
Además muchas pequeñas compañías no dispondrán de la experiencia SAN necesaria o, por ejemplo, de la capacidad para combinar en un mismo engranaje, conmutadores Cisco y las complejas pilas de networking virtual VMware. La virtualización mezcla tantos aspectos diferentes del networking, de la configuración servidor y de la configuración del almacenamiento, que requiere una gran diversidad de conocimientos y habilidades para que su implementación resulte un éxito, incluso en un entorno pequeño, explica Prigge.
Aunque tampoco las grandes organizaciones lo tendrán fácil. Conseguir implicar adecuadamente a personas de equipos distintos —servidores, almacenamiento, continuidad de negocio, seguridad...- en el mismo proyecto resultará complicado, especialmente cuando, como por lo general ocurre, han formado siempre parte de departamentos bastante independientes, con escasa comunicación entre sí.
Todos ellos, en cualquier caso, deberán además recibir formación específica. Un administrador deberá comprender, por ejemplo, que, si se produce un problema con una aplicación, antes de intentar resolverlo tendrá que estar seguro del lugar en que se encuentran las máquinas virtuales sobre la granja de servidores existente. De lo contrario, podría reiniciar un servidor e, involuntariamente, tirar abajo las máquinas virtuales que corran sobre él sin saber con antelación qué aplicaciones iban a resultar afectadas. Esta precaución, por ejemplo, no era necesaria en los entornos tradicionales, donde resultaba sencillo saber qué plataformas hardware soportaban qué aplicaciones. Por tanto, el administrador habrá de ser formado en la naturaleza del nuevo entorno y en el impacto que su actuación puede tener sobre él.
Los aumentos de rendimiento pueden no ser los esperados
Aún si salen airosas del duro trabajo descrito hasta ahora, las
empresas que adopten la virtualización quizá finalmente terminen sintiéndose algo decepcionadas. Muchas habrán abrazado la virtualización de servidor con enormes expectativas, para después ver cómo el rendimiento cae al poco tiempo. Wolf señala con un dedo acusador de tal decepción a los fabricantes: en mi opinión, la forma en que VMware publicita sus marcas de rendimiento es completamente inexacta.
Explica que los materiales publicitarios de este fabricante sobre los máximos alcanzados por su máquina virtual son correctos, pero se han conseguido corriendo una única máquina virtual sobre un único host físico. Es decir, suponen la dedicación del recurso hardware, con lo cual, se basan en unas condiciones en las que la virtualización no ofrecería precisamente su principal atractivo: la consolidación. En un entorno en producción típico resulta incluso bastante conservador el soportar entre ocho y 12 máquinas virtuales por host físico. Por tanto, los datos de los fabricantes no describen un escenario realista, sino demasiado optimista. Además, eluden cuestiones como la sobreasignación de núcleos CPU, que puede cargar excesivamente el programador de la CPU del hipervisor y, en consecuencia, reducir el rendimiento.
Otro potencial enemigo del rendimiento en estos entornos es la memoria, según Wolf, especialmente cuando se trata de virtualizar aplicaciones multitarea o multihilo. Cuando los hilos separados dentro de un sistema operativo intentan refrescar continuamente la memoria, las tablas de la página sombra (shadow page tables) —un sistema utilizado en la virtualización completa (full virtualization) mediante el cual se mantienen dos conjuntos de tablas de página: el conjunto del dominio invitado, invisibles al hardware vía cr3, y las tablas de página visibles al hardware, mantenidas por el hipervisor- son sometidas a backup. El resultado es un aumento de la latencia. Para las aplicaciones con una fuerte dependencia de la memoria, los picos de latencia y los tiempos de reacción de las aplicaciones empeorarán; hasta el punto de que los usuarios pueden empezar a sufrir tiempos muertos en sus conexiones. La memoria asistida por hardware constituye una posible solución a este problema, pero no siempre, en opinión de Wolf. Algunas aplicaciones corren mejor con virtualización de memoria asistida por hardware, mientras que otras lo hacen con las tablas de página sombra.
El deterioro del rendimiento llegará en algunos casos a ser considerable y obligará a la empresa a comprar más servidores. Muchos ejecutivos renegarán de la virtualización debido a que hará más lentos los tiempos de respuesta de los recursos que utilizan para realizar su trabajo, y pedirán que las aplicaciones sean de nuevo soportadas por sus propios
servidores. Si se llega a este tipo de situaciones, recuperar de nuevo la confianza en la tecnología de virtualización podría llevar a la empresa un par de años, advierte Wolf.
Algunas dificultadas más
Un rendimiento pobre, la falta de preparación de la planilla y los costos ocultos, representan, en cualquier caso, solo algunos ejemplos de los problemas que pueden acompañar a la virtualización del servidor. Gestionar el paradero exacto de las máquinas virtuales probablemente se convierta también en una pesadilla para muchos responsables TI, dado que tales máquinas pueden ser trasladadas de un servidor físico a otro, e incluso salir del centro de datos sobre un disco duro portátil. También abundarán los riesgos para la seguridad: por ejemplo, en un entorno virtual, resultarán más probables los problemas de auditoría por la ausencia de una completa separación entre zonas de seguridad.
Y también existe la amenaza de la proliferación descontrolada de servidores virtuales, porque las nuevas aplicaciones son más fáciles de desplegar y poner en funcionamiento en un mundo virtual. La virtualización aumenta el apetito de software, bromea Humphreys, de IDC. Una compañía pasó de mil  aplicaciones a casi 1.300 tras la virtualización de sus servidores. Y este inconveniente no solo ocasionará el aumento de los costos por licencias de software, sino también la carga asociada al seguimiento y gestión de las nuevas aplicaciones.
Por supuesto, todas las dificultadas mencionadas no impedirán que las empresas adopten las tecnologías de virtualización. Después de todo, si su implementación es la adecuada, los beneficios pueden resultar enormes, demasiado para renunciar a ellos de antemano. Pero conocer la forma de identificar y evitar los riesgos puede hacer el proceso mucho más sencillo, y el premio, mucho más valioso.
CIO, España