Llegamos a ustedes gracias a:



Reportajes y análisis

El viaje a la nube ha cambiado

[16/03/2022] Hubo un tiempo en el que la nube se convirtió en el destino de muchas de las cargas de trabajo de las organizaciones. Pasar del centro de datos propio a un espacio en el que las preocupaciones parecían disiparse por un pago mensual, era el sueño de todo CIO en aquel entonces. Y, de hecho, muchas organizaciones pasaron con entusiasmo a la nube. ¿Por qué tener un servidor para el correo electrónico? ¿Por qué preocuparse por comprar infraestructura? La nube parecía ser la respuesta a muchas preguntas.

Y, de hecho, lo fue. Uno sencillamente no puede imaginarse el desarrollo que se ha logrado sin la nube. Tiene mucho sentido operar en la nube y dejar el centro de datos 'en tierra' como algo del pasado. ¿O no?

Es un tema controvertido. Algunos CIO nos pueden decir que pronto no tendrá sentido tener un centro de datos propio -de hecho, eso nos dijo recientemente uno de ellos-; pero otros, en la práctica, no han abandonado el clásico centro de datos propio. Lo necesitan. Y es que el tiempo ha demostrado que, en ocasiones, es preferible quedarse en casa. Ya sea por regulaciones o por una necesidad de negocio, el centro de datos propio o uno tercerizado -de colocation- se resisten a dejar su espacio a la casi omnipresente nube. La nube ha sido la solución a muchas necesidades, pero quizás no a todas.

De izq. A der.: Gonzalo Flores, gerente de Cloud para IBM Perú, Ecuador y Bolivia; y Gustavo Hilsenrad, enterprise sales manager SSA de Vertiv.

Nuevamente, el péndulo

Como señaló Juan José Calderón, gerente de Data Center y Seguridad de Lumen Perú, en la industria de la tecnología siempre se hizo una analogía con el péndulo. Antes, hace unos 30 años, el mainframe era el modelo centralizado por excelencia; luego de unos años se pasó al modelo distribuido con el mundo de la microinformática y los servidores; y de ahí, nuevamente, hemos pasado a otro modelo centralizado, pero en esta ocasión de nube.

"El mundo de la nube sigue siendo un modelo centralizado, porque todo lo tengo que llevar a la nube, tengo que centralizar ahí; es el modelo del mainframe, moderno, con muchas más cosas, pero es un modelo centralizado, sostuvo el ejecutivo.

Pero como todo péndulo, regresa. Ahora su movimiento ya no es el producto de una tecnología propiamente dicha, sino de la necesidad propia del negocio: la velocidad.

Enviar las cargas de trabajo a la nube es muy conveniente por los beneficios conocidos que prometió la nube desde un inicio; sin embargo, llevar las cosas a la nube implica pasar por un sistema de conectividad que, por muy rápido que sea, genera algo de retraso. 'Latencia' es la palabra que describe a este retraso, y que puede que no sea muy importante para ciertas cargas de trabajo, pero para otras, las más nuevas, sí.

Un ejemplo que se ha repetido en varios de los entrevistados es el de los vehículos autónomos. La latencia no permitiría que ellos pudieran evitar un accidente si es que tuviesen que tomar una decisión en cuestión de décimas de segundo. Simplemente, enviar datos a la nube, procesarlos ahí y esperar la respuesta haría inviable la agilidad de un vehículo autónomo.

Por supuesto, este es un caso extremo. Existen otras cargas de trabajo que no requieren de esa velocidad de procesamiento. Como se señaló al inicio, no hay ningún problema en llevar el correo electrónico a la nube. De hecho, fue de los primeros servicios que migraron entusiastamente a este entorno cuando la nube recién comenzaba a volverse atractiva para las empresas gracias a sus promesas de reducción de costos y agilidad.

"Estamos yendo de vuelta a la tecnología centralizada a través de los centros de datos on premise, y ahora la tecnología está migrando fuertemente a todo lo que es colocation o centro de datos de hiperescala, indicó Gustavo Hilsenrad, enterprise sales manager SSA de Vertiv.

¿Abandonar el centro de datos propio?

Como sostuvo Luis Guerra, managing director para Perú y Ecuador de HPE, si bien es cierto que muchas de las cargas de trabajo han ido a la nube, son cargas de trabajo que no son las más críticas, son las de ofimática, de archivos o aplicaciones de oficina, esas son las que generalmente se han ido a la nube pública.

"Pero el 70% a 80% de la información, muchas aplicaciones del core del negocio, no se han movido a la nube pública. Están todavía en centros de datos privados, en el data center tradicional, o en una nube privada, de una empresa que está dando ese servicio, explica el ejecutivo.

Y ¿esto por qué? Se habla de cinco razones por las cuales se ha detenido este entusiasmo que había por llevar todo hacia la nube pública: por razones de rendimiento; de seguridad; de la gravedad de los datos (data gravity); las regulaciones y los costos.

Es más, como indica Guerra, IDC tiene un análisis en el que habla de que muchas de las aplicaciones que se fueron de manera indiscriminada hacia la nube pública ahora están repatriándose, están regresando por alguna o algunas de estas cinco razones.

"Hay empresas que se fueron -con la ilusión, la promesa indiscriminada de un beneficio- a la nube pública y descubrieron que luego aparecían todos estos problemas. Muchos se dieron cuenta que cuando empiezan a ver las cuotas que están pagando éstas son una locura. Si ellos comparan con tomar un servicio en una empresa local, o incluso su propio centro de datos o una nube local, descubren que están gastando inmensas cantidades de dinero, explica el ejecutivo.

El viaje a la nube fue también un aprendizaje para las empresas. Comenzaron a dimensionar realmente todos los beneficios que se esperaban y se dieron cuenta que quizás no es necesario llevar todo a la nube, algunas cosas se podían quedar en casa porque la nube no era realmente lo adecuado para esas cargas de trabajo.

De izq. A der.: Kurt Yanez, gerente de ventas para Productos de Centro de Datos vía Canales en Latam de Dell Technologies; y Martín Vela, gerente regional de Hitachi Vantara para América Latina.
Cloud, nube, híbrido, Dell, Hitachi

Como también refirió Martín Vela, gerente regional de Hitachi Vantara para América Latina, cuando la empresa aterriza en la nube se da cuenta que varios supuestos no se cumplen. Uno de ellos es el tema de la inversión. Llevar todas las aplicaciones a la nube no es tan barato como estimaba porque hay temas de SLA que, para que se cumplan, se tiene que pagar un poco más.

"Y a nivel operativo se da cuenta que efectivamente, la nube es una buena plataforma, pero para cierto tipo de aplicaciones. Por ejemplo, para el correo electrónico, como se dijo; pero hay aplicaciones que demandan muchas transacciones a nivel de acceso a datos y demandan una criticidad tan alta de operación que algunos clientes han preferido retornar a su centro de datos tradicional, por la criticidad de su negocio, sostiene Vela.

De hecho, la repatriación de los datos ha sido un movimiento que ha impactado en algunas organizaciones y, en general, ha servido para que el viaje a la nube vaya tomando la forma que actualmente tiene, ponderando la viabilidad de poner ciertas cargas de trabajo y pensando bien en qué es necesario dejar en la tierra o llevar a la nube.

"Hemos visto muchos clientes que lo único que hicieron fue ir y rentar infraestructura como servicio en la nube, y eso solo representa pasar el problema de un centro de datos propio al de un tercero y, a veces, hasta pagar un poco más. La responsabilidad de la operación sigue siendo suya, el que va a actualizar el sistema operativo, el que va a aplicar los parches, el que se va a tener que levantar a las 3 de la mañana si se cae el servidor sigue siendo el IT manager, detalla Kurt Yanez, gerente de ventas para Productos de Centro de Datos vía Canales en Latam de Dell Technologies.

Los que hicieron infraestructura como servicio efectivamente están haciendo una repatriación de regreso al on prem y muchas veces haciendo colocation, como se mencionó al inicio; es decir, confiando en proveedores de centros de datos que tienen mucha experiencia en la administración de grandes centros de datos.

La lógica es simple: uno va a tener una infraestructura propia, pero se la va a confiar a alguien que tiene más experiencia en la administración de hardware, pero también tiene infraestructura superior en cuanto a electricidad, continuidad de la operación, aire acondicionado de precisión y otros factores.

"El futuro que nosotros vemos como Dell Technologies es un futuro de nubes híbridas o de multinube. Creemos que nuestros clientes se van a mover y, de hecho, vemos evidencia de que ya está pasando, a tener una infraestructura segmentada en tres grandes bloques: las nubes públicas, las nubes privadas y el cómputo de borde, indica el ejecutivo.

Un modelo híbrido

El auge de la nube, el desencanto posterior por algunas de sus características y el surgimiento de nuevas cargas de trabajo ha hecho que, en realidad, las organizaciones dividan sus cargas de trabajo en tres: el centro de datos propio, los tradicionales proveedores de centros de datos y los proveedores de hiperescala, que son los que se nos vienen a la mente cuando hablamos de 'nube'.

Entonces, es un modelo híbrido. Los CIO utilizan todas estas alternativas dependiendo de los diversos factores que tengan que tomar en cuenta. Ya sea la latencia, la regulación de un país o simplemente la decisión de no sacar cierto tipo de datos de la empresa, se generan diversas necesidades que se pueden satisfacer con alguna de las alternativas.

¿Esto ha impactado en los clásicos proveedores de centros de datos que se han utilizado siempre?

"En rigor, no cambia mucho la estrategia que puedan tener un centro de datos porque sus clientes tienen algunas cargas con ellos, tienen algunas cargas en la nube administrada por ellos, y tendrán cosas on prem, en el centro de datos del cliente. Entonces, mi opinión es que no le cambia mucho la vida a las empresas que proveen un servicio de centro de datos esta explosión de la nube, afirma Gonzalo Flores, gerente de Cloud para IBM Perú, Ecuador y Bolivia.

Aquí vale la pena hacer una aclaración y un recordatorio. Flores nos contesta desde su posición en IBM, pero hay que recordar que el negocio de infraestructura de esta empresa pasó a Kyndryl, la empresa creada para desarrollar este campo. Lo importante, es que Flores nos responde con lo que experimentó hasta hace un año aproximadamente, cuando aún no había concluido el proceso de escisión.

Dicho esto, Flores también indica que, en realidad, los proveedores de centros de datos no han sido abandonados por sus pares de nube o hiperescala. Las cargas de trabajo siguen en estos proveedores de colocation; es decir, no se han quedado sin cargas que administrar, e incluso hace hincapié en que "no veo a los centros de datos o a los proveedores de centros de datos botando servidores por este fenómeno de la nube.

De hecho, los propios proveedores de centros de datos también han cambiado. Los clásicos servicios de hosting o housing aún se pueden encontrar, pero el negocio del proveedor de centros de datos es ahora distinto.

"Al final del día, muchos clientes toman un hosting o un managed; que el proveedor del servicio lo ponga en la nube o lo ponga on prem al cliente le debe significar lo mismo porque la palabra clave es SLA. Si el proveedor de servicios tiene un SLA con un cliente, lo ponga en la nube, en la tierra, en una nube privada o lo que sea, lo que tiene que hacer el proveedor de servicios es cumplir el SLA, enfatiza Flores.

De izq. A der.: Juan Pablo Borray, gerente de Desarrollo de Negocios para Latinoamérica de Panduit; Luis Guerra, managing director para Perú y Ecuador de HPE; y Juan José Calderón, gerente de Data Center y Seguridad de Lumen Perú.
Cloud, nobe, híbrido, HPE, Panduit, Lumen

El impacto de la pandemia

Como en otras áreas de la industria tecnológica, la pandemia ha significado un impulso notable en las operaciones; después de todo, ¿qué sería de la actual TI sin los centros de datos? Todas las videoconferencias, las transacciones de comercio electrónico, los esfuerzos de transformación digital y actividades similares han sido posibles gracias a uno o más centros de datos.

"Si antes el centro de datos era fundamental, hoy si no hay centro de datos no hay nada, recalca Juan Pablo Borray, gerente de Desarrollo de Negocios para Latinoamérica de Panduit.

"En Panduit, en los dos últimos años, el negocio que más ha crecido es el del centro de datos porque los centros de datos requieren más conexiones y más robustas, más ancho de banda, procesar más rápido la información. Entonces, tecnologías que iban a tomar algunos años para adoptarse hace un par de años como las de 40 a 100 gigas en el centro de datos, hoy hablamos de 400 e incluso más, agrega el ejecutivo.

Además, las aplicaciones no son las mismas. Hoy el video es el rey y este consume muchísimo ancho de banda, se requiere de más almacenamiento y más procesamiento para poder atender las necesidades como se requiere.

Pero ¿cómo lo hicieron? Es fácil entender que hubo más demanda de los centros de datos, pero esa demanda llegó en tiempos de confinamiento. La respuesta tiene que ver con el propio desarrollo que han tenido los centros de datos: la automatización.

"Diría que el proceso de automatización y de gestión remota se aceleró. Era algo que se veía a futuro, uno estimaba un tiempo de años y de pronto tuvo que hacerse en cuestión de semanas o meses, dependiendo de la aplicación, indica Vela de Hitachi.

Como sostuvo el ejecutivo, varios centros de datos querían tener un modelo desatendido, en remoto, pero no tenían las herramientas para hacerlo y tuvieron que implementarlas rápidamente. Entonces, entidades de verticales como la banca, las telecomunicaciones y el gobierno, fueron las que primero empezaron a aprovisionarse con distintos tipos de herramientas que permitieran hacer gestión del centro de datos de manera remota, automatizada.

La parte de la automatización cubre dos frentes importantes. Uno es el de la gestión remota, para realizar los procesos de forma más rápida y sencilla; el otro es el de la eliminación del error humano. Eso se aceleró bastante. Vela señaló que hubo casos en los que ni bien se declaró el estado de pandemia muchas instituciones hicieron un rápido aprovisionamiento de capacidades de almacenamiento, sobre todo porque veían que rápidamente iban a necesitarlas; luego solicitaron herramientas de gestión remota.

Y eso fue lo que permitió que las operaciones de los proveedores de centros de datos no se detuvieran. De hecho, como relata Calderón de Lumen, la compañía tiene un staff de personas que es el mínimo suficiente para poder llevar a cabo esas actividades que sí son presenciales. Y ellos fueron los que se asignaron en los centros de datos. En el pico de la pandemia no tuvieron más de 10 personas en todo el edificio a la vez.

"Nosotros de por sí como Lumen tenemos un modelo operativo muy regionalizado, y siempre lo hemos tenido así. Desde que la empresa se creó siempre hemos operado de esa forma, con lo cual mucho de los servicios de la compañía se pueden controlar y gestionar de manera remota, indica el ejecutivo.

Los 'nuevos' centros de datos

On prem, colocation, hiperescala, ¿son todas las alternativas existentes? En realidad, no. Hay una que ya Yanez de Dell -y también los otros entrevistados. menciona: el centro de datos del borde.

Cuando al inicio se mencionó el ejemplo del vehículo autónomo, en realidad se estaba hablando del borde. La necesidad de llevar el cómputo lo más cerca posible de los datos ha generado estos nuevos centros de datos. Claro, cuando uno menciona el borde lo primero que a uno le viene a la mente es un dispositivo, no un centro de datos.

"En el borde nos imaginamos la IoT, nos imaginamos sensores, PLCs, más dispositivos, videovigilancia en el transporte público; pero cuando le tenemos que agregar una capa de inteligencia artificial, la analítica avanzada de datos, necesitamos un poder de cómputo mayor, señala Yanez.

Como ejemplo, puso un caso en el que su firma corrió algoritmos de inteligencia artificial para detectar patrones de cansancio en los operarios de maquinaría de una mina en un dispositivo de almacenamiento. ¿Por qué? Porque se necesitaba la menor latencia posible para detectar el cansancio de los operarios y evitar que sufrieran un accidente.

"Cuando necesitas la menor latencia posible ¿dónde correría la aplicación? Pues donde tiene los datos, donde no hay una red de por medio que le agregue latencia, relata el ejecutivo.

Por supuesto, también se puede utilizar en situaciones un poco menos críticas, pero que igualmente requieren u ofrecen ventaja al no depender de un viaje a la nube.

"Las sucursales comienzan a ser cada vez más independientes. Se puede llegar a procesar ciertos niveles de información en el borde; o sea, en la sucursal, para tener totalmente independencia de las tramas digitales por si hay algún corte de información en el medio, explica Hilsenrad de Vertiv.

Al final

Entonces, ya no existen tres lugares donde pueden estar las cargas de trabajo, existen cuatro, incluyendo los centros de datos de borde. ¿Son muchos lugares? En realidad, todo depende del CIO.

"Lo que tiene que hacer un buen CIO es asegurar la continuidad operativa del negocio, asegurar que los clientes puedan transaccionar, asegurar que la estrategia de omnicanalidad se mantenga y que siempre esté up and running; con lo cual, pienso que la discusión no es tanto dónde terminan colocando las cargas, sino dónde tengo que colocar mis cargas para que mi negocio siga funcionando, reflexiona Flores.

Y tiene razón, los movimientos del péndulo no tienen por qué abrumar a los CIOs, por el contrario, el contar con más alternativas ofrece más posibilidades a los profesionales de TI.

"Lo que ahora hace el CIO es convertirse en un broker de servicios, un broker que administra cargas de trabajo, no un centro de datos. Administra aplicaciones, independientemente de dónde estén, finaliza Guerra.