Llegamos a ustedes gracias a:



Reportajes y análisis

Virtualización desde dentro

[04/10/2010] Cuando uno considera que todo está dicho sobre alguna tecnología, siempre surge una novedad que nos saca de nuestro error. La virtualización parecía uno de esos campos en los que la novedad ya no podía presentarse con fuerza; sin embargo, en el más reciente Virtualization Tour de Red Hat, pudimos hablar con Martín DElía para conocer las novedades que la compañía del sombrero rojo tenía sobre el tema.

¿Considera que ya la virtualización es un tema a punto de agotarse? ¿Qué opina sobre una nueva forma de virtualizar: la virtualización en el kernel? Si no tiene respuestas contundentes a estar interrogantes es que DElía si tiene algo que contarle. Y a nosotros también.
Cambio en el modelo
De acuerdo al gerente de Marketing de Red Hat para América Latina, el mercado ha cambiado mucho en los últimos 10 años.
La virtualización es un tema que aparentemente ya todos conocen. Ya todos han hecho algo en el tema, aunque no ha sido sino hasta recientemente que la virtualización se ha conformado en parte de la estrategia del área de TI de las empresas. Ya hay muchas experiencias en las áreas de producción y con seguridad hay muchas más en prueba.
Además, del lado de la oferta se puede apreciar un incremento significativo de ésta. Ya hay suficientes opciones como para realizar comparaciones y escoger la mejor alternativa. Antes tenías un solo proveedor. En los últimos 10 años se tenía que decidir así: take it or leave it, lo hacías con VMware al precio que quería VMware o no virtualizabas. Esa era la oferta hasta el año 2009, recuerda DElía.
Sin embargo, aquel año Red Hat cambia la tecnología y se decide a presentar la alternativa de realizar virtualización con KVM (Kernel-based Virtual Machine), que es la virtualización metida en el kernel del sistema operativo, convirtiendo así a la virtualización en una función más del sistema operativo; que es lo que debe ser, puntualiza el ejecutivo.
¿Cuál es la gran diferencia? Cuando uno instala una aplicación nueva para virtualizar se pueden presentar cuatro problemas. El primero de ellos es que se debe volver a certificar todo el entorno; se debe confirmar que las aplicaciones virtualizadas corran aceptablemente en el nuevo entorno. Un segundo problema es el que se presenta en el desempeño; cuando uno instala una capa de virtualización por fuera, se está emulando hardware, y por ello se hace complicado virtualizar las grandes cargas de trabajo.
Un tercer problema que surge es el de la seguridad; cuando se agrega la capa de virtualización se tiene que repensar la seguridad, pues es una nueva aplicación la que se encuentra ahora en el data center. Y, por último,  el costo, cuando se tenían menos alternativas (un solo proveedor) se tiene un problema de costo.
Con esta tecnología (virtualización en el kernel), Red Hat viene a bajar estas cuatro barreras. Una vez que la virtualización se encuentra dentro del kernel, hablo directo con el hardware, sobre todo con los nuevos chips de Intel que tienen una tecnología nueva que se llama VT (virtual technology). El KVM habla directo con esa parte del chip, con lo cual el rendimiento es prácticamente el mismo. Los rendimientos de SAP virtualizado, Oracle, Java, y todas las demás aplicaciones presentan una pérdida de rendimiento mínima, inferior al 5% o 6%, prácticamente imperceptible, sostiene DElía.
Además, por estar en el kernel, este nuevo tipo de virtualización no tiene que certificar un nuevo entorno. Algo similar ocurre con la seguridad, pues todos los niveles de seguridad que tiene el sistema operativo Linux pasan a la virtualización que no es, en ese caso, sino una nueva funcionalidad del sistema operativo. No hay que replantear la seguridad. Y en cuanto a costo es conocido que los sistemas operativos de código abierto ofrecen alternativas bastante competitivas frente a los sistemas propietarios.
Las novedades no se quedan ahí, sin embargo. DElía también señaló que al quedar bastante relacionadas la virtualización y la computación en la nube, era natural que también se presentaran novedades para la cloud computing. En este caso, lo que mencionó el ejecutivo fue el Delta Cloud, una API en la que actualmente se encuentra trabajando Red Hat y que tiene el propósito de permitir que el administrador de la nube de la empresa pueda ver más de una nube como si fueran una sola. Desde esta API también se podría administrar la capacidad que se va a requerir de cada nube.
DElía señala que ya son más de 800 empresas en el Perú que utilizan sus productos y que a nivel Latinoamericano están disfrutando de un periodo de adopciones gracias, en parte, a las migraciones que se están produciendo de Sun Solaris hacia Red Hat Linux.
Los tiempos son propicios, como lo han venido siendo desde hace tres años, en los que han venido creciendo a tasas cercanas a los dos dígitos. Es un buen momento para la compañía.
Jose Antonio Trujillo, CIO Perú