Llegamos a ustedes gracias a:



Columnas de opinión

¿Después de la virtualización y la nube, qué es lo que permanecerá internamente?

[08/12/2017] En una organización, ¿qué cantidad de capacidades TI -incluyendo procesadores, almacenamiento y redes- pueden trasladarse a la nube por medio de la virtualización?

Bastantes, de acuerdo con Craig Mathias, director en la firma de consejería Farpoint Group. La red empresarial del futuro consistirá en puntos de acceso, switches para proveer interconexión y energía, y routers que combinan funciones de seguridad, optimización del tráfico y capacidades relacionadas. Nada más. Todo lo que resta será proporcionado en forma de servicios en la nube.

Lo que se conoce como "virtualización extrema permitirá un acceso continuo para apropiarse del cómputo y la información, incluso a medida que los requisitos evolucionan en el trascurso del tiempo, afirma Mathias. La economía motivará la transición, puesto que las empresas buscan administrar mejor los costos de TI además de controlar el gasto en inversiones capitales tradicionales y el mantenimiento continuo.

La transición ocurrirá durante la próxima década, afirma Mathias. Ya se encuentra en proceso, con una adopción significativa de servicios de nube para cómputo, almacenamiento y plataformas de operaciones que también han sido trasladadas a la nube.

Continúe leyendo para saber cómo llegamos aquí y qué vendrá después.

Considerando que la aplicación diligente de la virtualización se esta dando prácticamente en toda TI, hemos empezado a explorar la próxima fase en la evolución de este enfoque poderoso y versátil para el abastecimiento de computación, almacenamiento, networking y más.

Pero, aunque los beneficios técnicos son casi abrumadores, necesitamos iniciar nuestra discusión con la transición que colocará una definición evolucionada de la virtualización en el centro de las estrategias futuras de TI en organizaciones de todos los tamaños y misiones.

Y con eso, como se suele decir, se trata completamente de dinero.

A muchos especialistas de TI se les recuerda constantemente una verdad muy rígida: Los presupuestos de TI en general nunca se recuperaron de la Gran Recesión de hace casi diez años. Una regla comúnmente reafirmada es que cada año trae una demanda de la alta gerencia, en la cual TI debe lograr un 10% más con un 10% menos de presupuesto. Aunque puede que la situación no sea tan dura en todos los departamentos de TI, aún hemos visto un énfasis general en el control de costos, afectando el presupuesto del gasto de capital (CapEx) y del gasto de operaciones (OpEx). En realidad, esto no es una sorpresa; TI usualmente es considerada como un centro de costo, no como un centro de ganancias; y el desempeño general de la función de TI es medido -ciertamente, de una manera muy vaga- por los mayores beneficios en la productividad del usuario final, y no, por supuesto, por el grado de adopción de nuevas tecnologías.

CapEx versus OpEx

En los días iniciales de la recesión, una estrategia general recomendada para lidiar con este desafío era incrementar el gasto de capital (CapEx) y disminuir el gasto de operaciones (OpEx). El gasto de capital incluye el equipo físico, software y la ingeniería no recurrente (NRE, por sus siglas en inglés) requerida para lograr que cualquier instalación o upgrade se pueda planear, adquirir, instalar y configurar de la manara más óptima. El CapEx, debido a la tradición de 'más rápido-mejor-más barato' en TI, se beneficia de las economías de fabricación a escala y de un incremento en el desempeño, tanto en términos de funcionalidades de los productos como de la productividad del personal de operaciones, aspectos inherentes en los avances tecnológicos que son fundamentales para la introducción de nuevos productos innovadores.

El OpEx, por otro lado, es intensivo en mano de obra, y tiene curvas de costo asociadas que se mueven en dirección opuesta a las del CapEx. Sin importar qué tan buenas sean las habilidades de un profesional de TI, la productividad humana tiene límites -factores como el sueño, el ocasional fin de semana libre, y la siempre latente posibilidad de errores humanos. Así que la estrategia en ese entonces estaba establecida de manera simple: Invierta en tecnologías más modernas para incrementar la productividad del personal de TI, limitando de esta manera el OpEx, y obteniendo los beneficios de los upgrades hacia tecnologías y productos más recientes que, con mayor probabilidad, se encontrarían independientemente dentro de lo planeado. Simple.

Excepto que ahora se esta evidenciando que dicha estrategia también tiene sus límites. Los ciclos de upgrade del CapEx se han alargado significativamente debido al crecimiento lento en los presupuestos del CapEx que se mencionó previamente; pero también, quizás, debido al nivel general de innovación de la propia tecnología. Y aunque se puede observar con frecuencia una mejora en la productividad del personal de operaciones, ahora el costo de mantenimiento constituye un componente principal del OpEx en muchos casos, con frecuencia compensando a las proveedoras por descuentos en compras por adelantado, pero limitando el ahorro del OpEx. Afortunadamente, una reexaminación del OpEx permitida por una nueva estrategia que hemos estado llamando "virtualización extrema presenta un gran potencial para la administración de costos de TI, esta vez regresando los costos al dominio del OpEx, pero con un giro interesante en la forma de una tendencia de tecnología clave: La nube.

La virtualización extrema

El concepto de virtualización extrema comenzó con muchos ejercicios de planeamiento a largo plazo en los que Farpoint View participó durante los últimos años, y en la raíz de cada uno de éstos se encontraba una sola pregunta: ¿Cómo se verá la infraestructura de TI en el 2025?

Las últimas tres décadas de gastos de CapEx han estado dominadas por las mejoras en el desempeño (hasta el mínimo de Ethernet de 1 Gbps de hoy, por ejemplo), cobertura y optimización de las capacidades para las LAN inalámbricas, hardware especializado para la administración del desempeño (por ejemplo, aceleradores de varias clases), y, por supuesto, una amplia gama de soluciones de seguridad. La interoperabilidad de 'mezcla y match' que es fundamental para el networking, hizo que sea posible crear soluciones muy personalizadas por medio de mejoras incrementales según la necesidad, pero desafortunadamente acompañadas de una complejidad que sin duda tiene un impacto negativo en el OpEx. Sin embargo, a medida que las innovaciones de punto de producto se consolidaron en ofertas más completas y administrables, la regla del 10% podría seguir siendo respetada.

La consolidación fue seguida por un conjunto más importante de innovaciones con la reducción correspondiente de costos: El surgimiento de la nube como plataforma para redes. Aunque muchas -si no la mayoría- de las definiciones de virtualización se han centrado en las máquinas virtuales y las tecnologías similares, una definición más apropiada y contemporánea de virtualización también puede incluir las funciones y capacidades que se han basado históricamente en el hardware y el software abastecidos localmente, pero que hoy en día se encuentran disponibles como servicios en la nube. En consecuencia, nosotros hoy sugerimos una estrategia que mueva los costos en la dirección opuesta a la que se aplicaba previamente, esta vez del CapEx hacia el OpEx, pero en este caso mediante la virtualización de tanta infraestructura TI como sea posible dentro de los servicios basados en la nube.

Tal estrategia ya está siendo aplicada hoy en muchas organizaciones. Empezando por la infraestructura computacional (servidores en el sentido tradicional) que ahora está disponible como servicio de nube, incluso a demanda. Las organizaciones de TI no ven la diferencia en las capacidades; estos servidores virtuales (y máquinas virtuales en servidores físicos que residen en la nube) pueden ser usados de manera idéntica a la del hardware local. Lo mismo ocurre con el almacenamiento, en donde el desempeño de la WANes frecuentemente el único factor que bloquea la transición al almacenamiento en nube como almacenamiento principal, y no solo para aplicaciones colaborativas o de backup.

Virtualización, nube

Incluso podemos ver una aplicación significativa de la virtualización de red, particularmente con respecto a la virtualización de funciones de red (NFV). Aunque mucho del énfasis aquí se ha puesto en las soluciones de las operadoras y de las proveedoras de servicios, las posibilidades de mudar a la nube lo que antes requería de hardware de red local -una vez más con capacidad y servicio a demanda- puede ser aplicado ampliamente por organizaciones individuales con usuarios finales. La transición continua hacia el networking definido por software (SDN, por sus siglas en inglés) que ofrece una mayor motivación aquí, en donde la computación en la nube (los controladores SDN, por ejemplo) reemplazan a los componentes dedicados de networking local con el fin de mejorar la flexibilidad, seguridad, desempeño -y, una vez más, la reducción de costos.

Adicionalmente, grandes partes del arsenal de administración y operaciones también se están trasladando a la nube. Las consolas de administración (alámbricas, inalámbricas, seguridad, otra TI, y más) ahora cuentan con una disponibilidad ampliamente accesible en la nube, con cobros por servicio -que incluyen mantenimiento y mejoras- facturadas mensualmente. La nube trae una conveniencia incomparable, incluyendo un acceso en todo momento, lugar y desde cualquier dispositivo, junto con una capacidad de crecimiento facilitada para los departamentos de TI de todos los tamaños y misiones. ¿Se requiere de máquinas virtuales en servidores en los centros de datos dedicados a los requerimientos de la administración de la red? No -ya no se requieren.

¿Qué se mantiene on premises?

Examinando solo los requisitos de networking de TI hacia el futuro, encontramos solo la necesidad de contar únicamente con un conjunto limitado de funcionalidades detalladas a continuación:

* Puntos de acceso (AP, por sus siglas en inglés) Wi-Fi: Dado que la mayoría de los dispositivos cliente ahora se conectan a las redes de las organizaciones de manera inalámbrica, la cobertura y la capacidad brindada por la red Wi-Fi contemporánea es crítica hoy en día. Los avances en las tecnologías básicas -como resultado de las mejoras en los estándares IEEE 802.11- producen una mejor seguridad, conexiones más confiables y rápidas (con una capacidad general más alta), precios más bajos como resultado de la consolidación funcional en los chipsets, así como la competencia en el mercado, y también conllevan la evolución correspondiente de las capacidades inalámbricas de los dispositivos cliente. Debido a los avances como Wave 2 de 802.11ac, que contiene MIMO (MU-MIMO) de usuario múltiple, el próximo 802.11ax de 10 Gbps, y las tecnologías de 60-GHz., 802.11ad y .11ay (¡esta última podría alcanzar los 100 Gbps!), parece no tener un valor mayor significativo por encima de la capacidad general de la WLAN, esencial para el éxito organizacional, sin importar cuál sea la misión.

* Switches Ethernet: El switch se encarga de interconectar y dar energía a todos esos AP, así como proporcionar cableado ocasional e implementar políticas de seguridad y tráfico a lo largo de la cadena de valor de la red. Existe algo de debate respecto a la viabilidad a largo plazo de los productos de 2,5/5 Mbps que ahora son relativamente comunes, los 10 Gbps son una opción más segura (por ahora, más costosa) dada la evolución de las tecnologías de Wi-Fi que se mencionó previamente. Esperamos que esas jerarquías de switches -que van desde el extremo hasta el centro- permanezcan como la estrategia preferida de arquitectura e implementación; los niveles crecientes de desempeño provisionado continuarán su tradicional migración hacia el borde. Y aunque esperamos implementaciones del plano de control de la WAN más distribuidas y cooperativas, los controladores de la Wi-Fi, donde sea necesario, desaparecerán en la resultante jerarquía de switches -o de la nube.

* Lo que solía ser un router: Este elemento proporciona una funcionalidad esencial de interfaz para la conexión entre las LAN de las organizaciones y las WANs de los proveedores de servicio. Por supuesto, nos hemos movido una gran distancia lejos del router de protocolo múltiple de hace 30 años (¿Recuerda algunos como IPX/SPX, NetBEUI y Burroughs Poll/Select entre otros?) y han regresado a las raíces de la Interfaz Message Processor (IMP) de protocolo único, razonablemente descrito como el router del ARPANET -el ancestro directo de la Internet de hoy-, y también quizás un precursor de las tecnologías del networking definido por software (SDN). Más adelante, por supuesto, el router proporcionará funciones de dirección y routing IP (NAT y más), VLANs, así como otras capacidades familiares, pero también una amplia gama de funciones de seguridad, optimización del tráfico (incluyendo clase y calidad de servicio, junto con balance de carga), y otras capacidades relacionadas. Su funcionalidad, además de ser clara y contar con un dispositivo esencialmente transparente en operación, tiene un software muy configurable por medio de la consola de administración. Sin embargo, el abastecimiento de transposición de conexiones WAN redundantes, una vez más con el fin de optimizar el desempeño (independientemente, mudar funcionalidad hacia la nube siempre resalta la necesidad de mayor capacidad aquí), pero también para la resistencia que deriva de la eliminación de puntos de falla individuales.

Todo lo demás como servicio

Sin embargo, el ciertamente limitado arsenal on premises conlleva a la función central de la virtualización extrema introducida previamente: En principio, toda la funcionalidad restante de networking reside en la nube y está provisionada y comprada como servicio. Esto incluye, por supuesto, a los servidores y a las aplicaciones que soportan (también a las máquinas virtuales, por supuesto), almacenamiento (incluso almacenamiento primario en muchos casos), así como los elementos principales de las redes organizacionales por medio de funciones de virtualización de red. Las consolas alámbricas/inalámbricas unificadas de administración, el análisis de red y otras capacidades relacionadas también se incluyen en la forma de servicios provisionados por la nube.

Las ventajas de este enfoque prácticamente de "todo como servicio (EaaS) son numerosas:

* Disponibilidad: Dado que la infraestructura de EaaS habita en la nube, y ésta se encuentra conectada a la Internet, los servicios requeridos están disponibles desde cualquier lugar en los que se encuentren conectados los usuarios. Recuerde que no hay diferencia en el abastecimiento de seguridad entre la infraestructura interna y la que se basa en la nube, puesto que a ambas se les aplica los mismos requisitos, procedimientos y soluciones.

* Confiabilidad y Resistencia:Los proveedores de nube competirán no solo en base a capacidad y funciones, sino también en lo que respecta a disponibilidad, confiabilidad y resistencia. Debido a que ya existen y continuarán existiendo múltiples proveedoras en el dominio de los servicios de nube, las organizaciones de usuario final especificarán y recibirán estas garantías en la forma de acuerdos y contratos rutinarios.

* Crecimiento: ¿Se requiere de más capacidad? No hay problema. Las proveedoras también competirán en esta dimensión. La capacidad adicional estará, en muchos si no es la mayoría de casos, disponible a demanda sin previo aviso, y a un precio competitivo establecido por el mercado. Y las compañías más pequeñas pueden tener TI y el networking de una "compañía grande con los que pueden crecer desde el primer día.

* Evolución controlada: Tradicionalmente, los upgrades y las mejoras han requerido de presupuestos grandes, un planeamiento cuidadoso, y despliegues por etapas. Aquí, el modelo EaaS coloca la responsabilidad en los dominios de las proveedoras de servicio que desarrollarán experiencia y conocimientos significativos en estas actividades. Por ejemplo, mover una infraestructura a base de SDN involucrará un esfuerzo mínimo por parte de la administración de TI organizacional, red, y operaciones, donde los usuarios finales experimentan una interrupción mínima o nula del servicio.

Como sucede en la mayoría de los casos, la competencia reducirá al máximo los costos, con mejoras adicionales con el trascurso del tiempo, a medida que las proveedoras mejoran sus conocimientos, métodos, y procedimientos, amortizándolos por medio de economías de escala en bases de clientes potencialmente muy grandes. Por lo tanto, opinamos que nuestra conversión de CapEx a OpEx está completa, junto con el potencial de generar grandes ahorros a lo largo de todo el ciclo de vida de cualquier instalación.

Nosotros hasta podemos extender nuestro concepto de virtualización extrema hasta el extremo de la red, dentro de los dispositivos usados para acceder a la red. Aunque BYOD se ha convertido en la norma que predomina actualmente, los usuarios finales aún mantienen la carga de mantener esos elementos de funcionalidad de sus dispositivos que no son cubiertos por las soluciones de administración de movilidad (EMM, por sus siglas en inglés). Imagine, en lugar de esto, un modelo de provisión de dispositivos basado en rentar o "tomar prestado un dispositivo temporalmente. Escoja a demanda un dispositivo de un cache local de éstos, que en otros casos serán seleccionados en base al factor de forma deseado en un momento determinado en el tiempo, inserte su propia tarjeta inteligente (que podría ser una llave USB), autentíquese con una contraseña u otro factor secundario, y listo -el "escritorio (virtual, por supuesto) aparece. Las funciones apropiadas de administración de control reemplazan al sistema operativo tradicional y aseguran de manera trasparente la configuración, integridad y confiabilidad de cualquier dispositivo. ¿Terminó lo que tenía que hacer? Retire la tarjeta inteligente y usted nunca estuvo ahí.

La transición hacia la virtualización extrema

El concepto que engloba a la virtualización extrema es simple: Un acceso ininterrumpido al cómputo e información apropiados, incluso a medida que estos evolucionan, en gran medida, reemplazando inversiones y el mantenimiento continuo de la infraestructura de red y de TI. Recuerde también que el modelo de la virtualización extrema podría hasta extenderse dentro de las infraestructura interna, rentándole también a una proveedora de servicios el conjunto bastante limitado de elementos que detallamos previamente, y así representando una real oportunidad para compañías transportadoras  e integradoras para extender sus modelos de negocio -y, una vez más, con la competencia beneficiando a las organizaciones de usuario final.

Un problema potencial para muchos será el requisito de conectividad continua de red, tanto de cliente como de la WAN para operaciones normales. Enfrentémoslo: la viabilidad de las actividades sin conexión de TI ya expiró hace un tiempo, en el modelo de colaboración actual, en tiempo real, para el acceso a la información se ha vuelto necesario estar en línea. Una vez más, el modelo de virtualización extrema está motivado inicialmente por el requisito de minimizar costos continuos, pero el abastecimiento mejorado de confiabilidad y disponibilidad requerido aquí son lo que finalmente cierran el trato.

Un punto final: Nosotros si esperamos impactos significativos en los modelos de negocio de proveedoras tradicionales de equipos de red, a medida que ocurra la transición de productos a servicios. Sin embargo, para muchas de estas, la evolución hacia la virtualización extrema introducirá nuevas oportunidades de mercado y, de esta manera, mantendrá viable y en crecimiento a la industria de equipos de red.

Nosotros esperamos que la transición hacia la virtualización extrema tome de cinco a 10 años, pero administrar las restricciones de costo que iniciaron esta discusión finalmente determina que este cambio representa la única dirección hacia el futuro. Y muchos de nosotros ciertamente estamos ansiosos.

Craig J. Mathias es director de Farpoint Group, una firma de consultoría especializada en redes inalámbricas e informática móvil. Fundada en 1991, Farpoint Group trabaja con desarrolladores de tecnología, fabricantes, transportistas y operadores, empresas y la comunidad financiera. Craig es un analista de tecnología e industria reconocido internacionalmente, consultor, conferencista, autor, columnista y blogger. Escribe regularmente para Network World, CIO.com y TechTarget. Craig tiene un Sc. B. es licenciado en Ciencias de la Computación por la Universidad de Brown, y es miembro de la Society of Sigma Xi y del IEEE.