Llegamos a ustedes gracias a:



Columnas de opinión

10 predicciones de Cloud Computing para el 2014

Por: Bernard Golden, director senior del grupo Cloud Computing Enterprise Solutions de Dell

[24/12/2013] Es el momento del año cuando las personas comienzan a estimar como les fue en el año y como les irá en el siguiente. También es el momento del año en que se ponen de moda las predicciones acerca de los desarrollo en la industria tecnológica para los próximos 12 meses. He publicado predicciones para la computación en la nube en los pasados años y éstas siempre se encuentran entre las piezas más populares que he escrito.
Volviendo atrás a mis antiguas predicciones, me siento impactado no tanto por alguna predicción en especial o por la exactitud (o inexactitud) general de ellas, sino por la forma en que se ha transformado el propio tema de la computación en la nube.
Hace cuatro o cinco años, la computación en la nube era un concepto muy controversial y no probado. Me convertí en un fuerte defensor de ella al escribir Virtualization for Dummies (Virtualización para dummies) y al encontrarme expuesto a Amazon Web Services en sus días iniciales. Concluí que los beneficios de la computación en la nube harían que ésta se convierta en la plataforma TI por defecto en el futuro cercano.
Estoy complacido en decir que mis expectativas, de hecho, se hicieron realidad. Es obvio que la computación en la nube se está convirtiendo en regla, mientras que los despliegues que no son de nube se están convirtiendo en la excepción. Los escépticos continúan planteando deficiencias con respecto a la computación en la nube, pero el alcance de sus argumentos continua reduciéndose.
En la actualidad, los argumentos contra la computación en la nube son limitados. Algunas aplicaciones requieren de arquitecturas que no encajan bien en los ambientes de nube, señalan los críticos, sugiriendo que los ambientes de nube no son universalmente perfectos para cada aplicación. Esto no es una sorpresa.
Otros críticos citan algún mix de seguridad y cumplimiento, aunque el nivel de ruido de este tema es mucho menor que en el pasado. En sus predicciones para el 2014, James Staten de Forrester sostiene si uno se está resistiendo a la nube debido a los problemas con la seguridad, se está quedando sin excusas, y señala que la seguridad de la nube ha mostrado su valía.
Siempre he tomado una perspectiva diferente: la alarma que surgió en torno a la seguridad de la nube fue solamente una cortina de humo del personal de TI que no quería cambiar sus prácticas establecidas. Más aún, las preocupaciones en torno a la seguridad desaparecerían no porque los proveedores de nube repentinamente probaron que eran lo suficientemente seguros, sino porque los recalcitrantes miembros del personal de TI se dieron cuenta que tenían que adoptar la computación en la nube o enfrentar la posibilidad de un cambio mucho mayor: el desempleo.
Con el triunfo de la computación en la nube en camino, ¿qué nos traerá el 2014 como desarrollos en este campo? Este va a ser un año especialmente emocionante para la computación en la nube. La razón es simple: en el 2014, todos se darán cuenta que la nube puede generar tipos completamente nuevos de aplicaciones. El próximo año vamos a ver artículos que proclamen lo maravilloso de una aplicación de nube o de otra, y la forma en que la computación en la nube pudo hacer posible la aplicación cuando en el pasado no hubiera podido existir. Contemos con ello.
Con esto en mente, a continuación mis predicciones sobre la computación en la nube. Como en el pasado, presento la lista dividida en dos secciones: cinco predicciones para usuarios finales y cinco pronósticos para proveedores. Hago esto porque demasiadas predicciones se concentran en el lado del proveedor. Desde mi perspectiva, el efecto de la computación en la nube sobre los usuarios es igualmente importante y merecedor de atención.
1. Más empresas se convertirán en compañías de software
Hace un par de años Mark Andreessen proclamó que el software se está comiendo al mundo. El próximo año, esto será absolutamente obvio. Para ponerlos en términos simples, todos los productos y servicios están quedando envueltos en TI, y todas estas aplicaciones tendrán su hogar en la nube.
Para proporcionar un ejemplo personal, mi doctor sugirió durante mi examen físico anual que comience a registrar mi presión sanguínea. ¿La solución para enviarle los resultados? En lugar de registrar los números en una hoja de cálculo y enviársela por correo electrónico, él recomendó un monitor de presión sanguínea que se conecta a una aplicación para smartphone, la cual automáticamente envía los resultados a su firma y se comunica con una aplicación que descarga las cifras en mi historia clínica.
El efecto neto del cambio hacia productos y servicios envueltos en TI es que el gasto global en TI se incrementará significativamente a medida que TI pase del soporte de backoffice a la entrega de valor en la línea del frente. El tamaño de TI superará la capacidad on premises y dará como resultado una masiva adopción de la computación en la nube.
2. Los desarrolladores de aplicaciones serán más importantes
Si las aplicaciones se están volviendo más importantes para las ofertas del negocio, entonces aquellos que crean las aplicaciones serán más importantes. La firma de análisis RedMonk se refiere a esta tendencia como el desarrollador como el poder en la sombra, ya que los desarrolladores son ahora cruciales en el diseño e implementación de las ofertas del negocio. Se están produciendo grandes cambios en las prácticas de desarrollo, impulsados por el actual cambio hacia el código abierto y la adopción de procesos de entrega ágiles y continuos. Esto mejora la productividad y la creatividad de los desarrolladores, y hace que los desarrolladores lancen aplicaciones más interesantes e importantes.
No es un secreto que los desarrolladores dirigieron gran parte del crecimiento inicial de la computación en la nube, frustrados por la pobre respuesta de las TI centrales y atraídos por la disponibilidad inmediata de recursos provenientes de los proveedores de nube. Esta adopción temprana cimentó las expectativas de los desarrolladores que acceder a los recursos de nube debería ser fácil y rápido, lo cual da como resultados una mayor adopción de la nube por parte de los cada vez más importantes desarrolladores.
Será interesante observar como las compañías convencionales enfrentan la importancia de los desarrolladores. Muchas tradicionalmente han subestimado la importancia de TI y la han tratado como un centro de costos al cual exprimir -o eliminar completamente a través del outsourcing. Cuando estas compañías comiencen a incrementar sus esfuerzos de desarrollo de aplicaciones, confrontarán un pool de recursos costoso con muchas opciones laborales. Pueden elegir tercerizar estas aplicaciones hacia agencias e integradores especializados cuyos altos precios pueden pagarse sin impactar en la estructura de pagos dentro de la compañía.
3. Las decisiones de colocación de la carga de trabajo de las aplicaciones continuará cambiando hacia los usuarios finales
Gartner causó revuelo el año pasado cuando pronosticó que los CMO controlarían más del 50% del gasto en TI para el 2017. Por supuesto, uno no puede saber cómo va a resultar este pronóstico, pero las dos predicciones anteriores claramente reflejan una perspectiva similar: cuando se trata de aplicaciones, los usuarios finales tienen cada vez más las manos sobre el timón. La cuestión es si éstas aplicaciones orientadas a las empresas serán desplegadas on premises o en la nube.
Tres hechos son relevantes aquí:
* Los usuarios de negocio, como los CMO, tienen mucho menos compromiso con los despliegues on premises. Para decirlo en breve, ellos están emocionalmente indiferentes con el lugar de la carga de trabajo y están, quizás, más abiertos a la nube que sus contrapartes de TI. Existe una mayor probabilidad de que el auspiciador de la aplicación coloque la carga de trabajo en un ambiente de nube, quedando todo lo demás constante.
* Pero no lo está, y ese es el segundo factor. Como se ha anotado, los desarrolladores ya usan la computación en la nube para escribir aplicaciones. Existe una gran probabilidad que, al decidir dónde desplegar la aplicación de producción resultante, la elección sea el mismo ambiente en donde ocurrió el desarrollo: la nube.
* El tercer hecho importante es la forma en que el diseño e implementación de la aplicación van a impactar en la decisión de despliegue. Muchos desarrolladores naturalmente usan características o funcionalidades específicas de un ambiente de nube dado durante el desarrollo de la aplicación. Cuando llega el momento del despliegue, la aplicación se encuentra ligada al ambiente de desarrollo y requerirá de más trabajo para ser desplegada en otro lugar. Eso va a parecer una incomodidad, con el inevitable resultado de que otras decisiones de despliegue se tomarán en favor de la nube.
Veremos muchas historias en el 2014 de compañías que lanzan nuevas ofertas de negocio para Internet y reconocen que el 99% de ellas se basan en la nube para su procesamiento backend.
4. La nube privada tendrá su momento de la verdad
En años pasados, las organizaciones TI han reconocido que la computación en la nube proporciona beneficios indudables, pero las preocupaciones en cuanto a la seguridad y la privacidad requirieron que se implementara una nube interna antes de que las aplicaciones reales sean desplegadas. Muchas de estas iniciativas de nube privada han sido procesos amplios, aunque empantanados por los presupuestos, prolongadas evaluaciones por parte de los proveedores, construcción de las habilidades de los empleados y, sí, las políticas internas.
Aunque este tipo de demoras podrían ser aceptadas como parte de los problemas de cambiar a una nueva plataforma, el 2014 forzará a las compañías a realmente evaluar el progreso de sus esfuerzos de nubes privadas. Las decisiones del despliegue de las cargas de trabajo de las aplicaciones se toman todos los días; todas las decisiones que colocan a las aplicaciones en la nube pública, significa que otra aplicación no será nunca desplegada de manera interna. Olvide la retórica de transfiera sus aplicaciones de nube a una nube interna de calidad de producción que usualmente señalan los proveedores. La realidad es que, una vez desplegadas, las aplicaciones encuentran su hogar permanente.
Esto significa que las organizaciones TI que están planeando ambientes de nube tienen un corto camino para entregar algo. De otra forma, la decisión de adopción de la nube se realizará de manera de facto. Más aún, la medida de esa nube privada será qué tan bien satisface la conveniencia y funcionalidad de los proveedores públicos. Una nube que hace que los trabajos de los operadores TI sean más convenientes pero que no hace nada por los usuarios de nube terminará como un pueblo fantasma, dejado de lado por los desarrolladores y unidades de negocio en su camino hacia la agilidad y respuesta de negocio.
5. El corretaje de nube atraerá la atención de las personas
De la misma forma en que la computación en la nube privada enfrentará algunas duras verdades en el 2014, también lo hará la visión de la computación en la nube híbrida como una sola tecnología homogénea que abarca los centros de datos internos y los ambientes de nube externos alojados por el proveedor de tecnología interno. La realidad es que todas las empresas usarán múltiples ambientes de nube entregados con plataformas heterogéneas. La necesidad más crucial será la de crear u obtener capacidades para administrar los diferentes ambientes de nube con un marco de gestión consistente, es decir, corretaje de nube.
La necesidad del corretaje de nube va más allá de lo técnico, por cierto. Aunque es crucial tener un solo panel que use herramientas consistentes y gobierno corporativo en toda una variedad de ambientes de nube, también es importante la administración de la utilización y el costo de esos ambientes, y eso será cada vez más evidente en el 2014.
La capacidad del corretaje financiero será un punto de interés el próximo año ya que las compañías habrán desplegado aplicaciones significativas y habrán descubierto que el uso de los recursos y los costos generales no son previsibles, dado el modelo de pago por uso de los proveedores de nube. La tenencia de herramientas que rastreen el uso de los recursos y haga recomendaciones para optimizar el uso y los costos generales, se unirá al corretaje técnico como un requerimiento fundamental de la computación en la nube.
Por cierto, el corretaje de nube es una forma de que TI entregue valor a los usuarios finales. Una vez que TI reconoce que se encuentra en el negocio de la administración de la infraestructura y no en el de la propiedad de los activos, reconocerá el inmenso valor que puede entregar para ayudar a los desarrolladores y usuarios de negocio a hacer el mejor uso de los ambientes de computación en la nube pública.
6. AWS continuará con su tórrido ritmo de innovaciones
Una de las cosas más sorprendentes de Amazon, es cuán rápidamente evoluciona su servicio y cuán seguido entrega nuevas funcionalidades. En ocasiones la industria de los cloud service provider (CSP) se asemeja a una de esas películas en las que un personaje va rápido en una escena mientras que los otros actores se movilizan a un ritmo agonizantemente lento.
Es tradicional que una vez que un proveedor tiene un nuevo producto o servicio establecido, su ritmo de innovación cae al confrontar la necesidad de ayudar a sus clientes a adoptar su prometedora oferta inicial. Este fenómeno incluso tiene un nombre, Crossing the Chasm (el cruce del abismo), proveniente del libro del mismo nombre, que refiere la forma en que los proveedores tienen que parecerse a sus competidores existentes para lograr un éxito generalizado.
A pesar de que AWS cruza la línea de los cuatro mil millones de dólares en ingresos, no parece desacelerar su paso en la innovación. Lejos de ello. En su reciente conferencia re:Invent 2013, AWS anunció cinco nuevas y grandes ofertas, y señaló que ofrecería más de 250 nuevas ofertas o mejoras de servicios en el 2013.
Nada indica que el 2014 será diferente; esperemos muchos nuevo servicios y ofertas de servicio de AWS. En un reciente conjunto de publicaciones acerca de la infraestructura de hardware y software de AWS, noté que, durante sus primeros años, AWS creó una infraestructura global y muy grande que entrega confiablemente capacidades fundamentales de computación, almacenamiento y networking.
En la actualidad, AWS puede aprovechar esos elementos para crear funcionalidades de alto nivel dirigidas a las necesidades que surgen en sus clientes. Por ejemplo, el recientemente anunciado servicio de procesamiento de eventos AWS Kinesis usa EC2, Elastic Load Balancer, DynamoDB y IAM como ingredientes, junto con el código específico para el servicio Kinesis, combinado como parte de una nueva receta.
Amazon logra su innovación porque enfoca la computación en la nube como una disciplina de software, no como una extensión del hosting, como lo hacen la mayoría de sus competidores. El próximo año veremos más evidencias de que el enfoque del software entrega valor al cliente mucho más rápido que el enfoque del hardware.
7. Google, Microsoft tomarán más en serio la nube
De alguna forma, AWS ha tenido pista libre hasta el momento. La mayor parte de su competencia ha venido del mundo del hosting, y, como se señaló, ésta es incapaz de tomar un enfoque de software para este campo. El resultado inevitable: AWS ha mejorado, y crecido, mucho más rápidamente que los otros CSP.
Esta pista libre terminará en el 2014. Tanto Google como Microsoft tienen a AWS en su mente y están desplegando ofertas muy competitivas, diseñadas para dar la batalla. Ambos, finalmente, han reconocido que sus ofertas iniciales de nube no eran adecuadas. (Ambas, en mi parecer, parecían ofertas que los clientes deberían haber considerado mejor a las AWS, y ambas empresas parecían desconcertadas ante el hecho de que las ventajas de sus ofertas, aunque claras para ellos, no fueron apreciadas por los clientes potenciales). Con la versión 2.0, ambas compañías ofrecen ofertas de nube directamente competitivas.
Microsoft tiene una oportunidad obvia aquí. Tiene una enorme base instalada y una gran comunidad de desarrolladores. Sus ofertas se integran directamente con las herramientas de desarrollo existentes y hacen que sea sencillo alojar una aplicación en Azure. Su mayor desafío podría no ser la tecnología, sino redirigir la inercia de su actual negocio y base de socios. He escuchado rumores acerca de resellers de Microsoft muy sensibles que se preguntan cuál será su rol en el futuro de la compañía. La inevitable tentación para la compañía será moderar su iniciativa Azure para aplacar a los socios actuales. Eso sería negativo, pero son entendibles los motivos por los que la dinámica de las relaciones existentes podrían evitar (o dificultar) el progreso de Azure. Sin embargo, Microsoft ha entendido que AWS representa una amenaza mortal y se ha destinado a enfrentarla.
Google se encuentra en una posición diferente. No tiene una base instalada que se vea amenazada por AWS. Sin embargo, ha decidido ir tras Amazon, usando como armas su espalda financiera y sus excepcionales recursos técnicos. Un interesante post, que describe las numerosas ventajas que tiene Google Compute Engine frente a AWS, deja en claro que Google está apuntando directamente a las falencias técnicas en la oferta de AWS. De alguna forma, este es un cambio refrescante con respecto a los ineficaces intentos de otros competidores, que insisten en enarbolar ventajas sobre AWS de las que nadie se preocupa.
La oferta de Google es quizás la más intrigante de las dos. En la pasada década, Google ha sido más innovadora que Microsoft; tan solo eso implica que podría ser el oponente más creativo que AWS enfrenta en el siguiente año.
En cualquier caso, para AWS el mercado CSP ya no será como quitarle el caramelo a un niño, y el 2014 va a representar el inicio de una lucha multianual por el dominio entre estas tres empresas.
8. La importancia del ecosistema quedará clara
Casi todos han escuchado del efecto de red, el cual se refiere al valor añadido a un grupo de usuarios cuando uno más se une al grupo. En ocasiones se resume como si solo uno tiene fax, entonces éste no es de mucha utilidad, a menos que muchas personas tengan faxes para poder enviar y recibir mensajes, poseer un fax no ofrece mucho valor.
Con respecto a las plataformas tecnológicas, existe una relación simbiótica entre el efecto de red del número de usuarios y la riqueza de la funcionalidad de la plataforma. Esto generalmente no se basa -no únicamente al menos- en la capacidad de la propia plataforma sino en los servicios y productos de terceros que son complementarios. Más usuarios hacen que una plataforma sea más atractiva para las ofertas de terceros, lo cual hace, a su vez, más atractiva a la plataforma para los usuarios que deciden qué plataforma adoptar.
En la actualidad, la riqueza del ecosistema CSP se encuentra totalmente dispareja. No solo AWS proporciona una plataforma más rica en servicios que sus competidores, sino que también tiene, con mucho, el mayor número de servicios complementarios proporcionados por terceros. En el 2014, a medida que más aplicaciones se despliegan en proveedores de nubes públicas, la importancia del ecosistema será un punto de interés.
La riqueza del ecosistema de una plataforma afecta directamente la velocidad con la que las aplicaciones pueden crearse y entregarse. Las plataformas de nube que tienen un ecosistema insignificante van a sufrir, incluso si sus servicios fundamentales, como las máquinas virtuales y la capacidad de red, son mejores que las de Amazon.
Claramente, Microsoft debería poder desplegar un ecosistema rico, ya que la clave del éxito de Windows es su ecosistema; gran parte de él, presumiblemente, debería poder portarse a Azure de manera muy sencilla. Veremos cómo Google progresa en este campo el próximo año. Para finales del próximo año, la discusión cubrirá desde quién tiene las mejores máquinas virtuales hasta quién es el mejor habilitando aplicaciones, con el reconocimiento de que la riqueza del ecosistema de una plataforma es crucial.
9. VMware se dará cuenta que vCHS es crítico para su futuro
VMware ha estado en una posición entretenida con respecto a la computación en la nube. Las indudables ventajas de la plataforma dentro del centro de datos corporativo no han sido igualadas por un similar éxito en la nube pública. Por alguna razón -o quizás por muchas razones- los socios CSP públicos de VMware no han podido generar una gran adopción del sabor de VMware en la computación en la nube.
VMware está tomando otro sentido en este campo, con un enfoque explícitamente diseñado para ampliar e integrar los ambientes on premises en una oferta de nube híbrida dirigida por VMware. Ciertamente, este enfoque promete mucho. La capacidad para transferir sin problemas una carga de trabajo de ambientes internos a ambientes externos podría resolver muchos dolores de cabeza para las organizaciones de TI.
Este enfoque, llamado vCHS, puede proporcionar beneficios que van más allá de la simple consistencia de la tecnología, ya que permitiría que las organizaciones TI se concentren en un conjunto de habilidades personales, reduciendo así los costos y la complejidad.
El próximo año será importante para VMware y su oferta vCHS. Como se señaló antes, las compañías están tomando decisiones en estos momentos que establecerán el curso para el futuro. Si VMware espera tener un papel importante en la computación en la nube pública como lo tuvo en los ambientes de centro de datos internos, necesita ser parte de esas decisiones. No queda mucho tiempo para obtener una posición en las listas. Uno puede estar seguro que VMware reconoce cuán importante va a ser el 2014 para su futuro y que está planeando una campaña agresiva para mantener su posición de liderazgo en el mercado.
10. Se aproxima un baño de sangre en precios a la nube pública
Amazon ha tenido pista libre hasta el momento. La mayoría de su competencia, en efecto, competía en el frente equivocado, o a menos trató de diferenciarse en aspectos acerca de los cuales la mayoría de los adoptadores son apáticos. Una diferencia fundamental entre AWS y la mayoría de su competencia es el costo. Mientras que gran parte de la competencia de Amazon ha alineado sus precios con los modelos de alojamiento existentes, requiriendo compromisos significativos en términos de la cantidad de recursos y la duración del contrato, Amazon hace que sea sencillo comenzar con unos cuantos dólares, sin compromisos.
En efecto, esto ha significado que Amazon está compitiendo con ella misma -y, ha reducido precios desde que lanzó AWS. Ese campo de uno va a expandirse este año con la llegada de Microsoft y Google. El resultado va a ser una feroz guerra de precios, en donde las tres compañías van a reducir sus costos de manera repetida para mantener (Amazon) o lograr (Microsoft y Google) participación de mercado. No solo esta es una batalla por el dominio del mercado, sino que refleja la naturaleza de la computación en la nube: una industria intensiva en capital en donde es crítico mantener un alto nivel de uso.
Para otros proveedores de nube, ser testigos de esta aglomeración competitiva no solo será un deporte de observación. Todos los proveedores de nube van a ser confrontados -de manera diaria y continua- con tres competidores con buenos recursos financieros cada uno de los cuales supera a los otros cada vez que reducen sus precios. Inevitablemente, otros CSP sufrirán daños colaterales, ya que los clientes potenciales llevarán la lista de precios de los tres grandes a las negociaciones de los contratos y esperarán que éstos igualen lo que ofrecen. Para aquellos sin un bajo costo de capital y sin sus propios recursos financieros, el próximo año será el inicio de un largo y lento descenso hacia un problema financiero que solo se resolverá mediante la consolidación de la industria o cerrando sus ofertas.
La industria de las aerolíneas son un buen ejemplo al respecto. Como con la computación en la nube, las aerolíneas con un negocio intensivo en capital; los aviones cuestan mucho, mientras que los asientos son vendidos a bajos costos y con pocos compromisos. La clave para la industria de las aerolíneas es la administración del rendimiento, que es su versión de la utilización de la infraestructura. En los pasados años se ha visto varias bancarrotas entre las aerolíneas y una manía por las fusiones. El próximo año el mercado de la computación en la nube se verá muy parecido a la industria de las aerolíneas, algo bueno para los clientes pero peligroso para los proveedores.
Bueno, ahí lo tienen, mis predicciones para el 2014 de la computación en la nube. En cierto sentido, lo que ha pasado en la industria hasta el momento ha sido el prólogo para la principal historia de la computación en la nube. El próximo año representa el inicio de la historia principal. En el 2014, veremos que la computación en la nube se convierte en la plataforma dominante para TI de ahora en adelante. Habrá muchos éxitos a medida que los usuarios aprendan a aprovechar las nuevas capacidades que ofrece la computación en la nube, junto con desafíos a muchos en la industria -tanto usuarios como proveedores- que luchan por realizar una transición exitosa a la plataforma en el futuro.
Bernard Golden, CIO (EE.UU.)
Bernard Golden es director senior del grupo Cloud Computing Enterprise Solutions de Dell. Antes de ello, fue vicepresidente de Enterprise Solutions for Enstratius Networks, empresa de software de administración de nube, que Dell adquirió en mayo del 2013. Es autor de tres libros sobre virtualización y computación en la nube, incluyendo Virtualization for Dummies.