Llegamos a ustedes gracias a:



Reportajes y análisis

Panduit Summit: El centro de datos del mañana

[13/08/2020] Hace unos días se llevó a cabo la segunda edición del Get to Know Panduit Online Summit, un evento en el que Panduit compartió de forma virtual sus perspectivas y recomendaciones en torno a un elemento vital del espacio informático de la actualidad: El centro de datos.

En las actuales circunstancias, el centro de datos se ha convertido en la piedra angular sobre la que descansan diversos servicios que hacen posible que podamos hacer cosas tan simples y a la vez tan complejas como comunicarnos y colaborar para el trabajo. Y por ello era necesario reconocer las actuales tendencias que están obrando sobre este lugar. Como adelanto, podemos decir que durante la conferencia quedó en claro que, a pesar de todo, las cargas de trabajo más críticas aún se quedan en casa y que, aunque la nube pública crece, aún son los centros de datos on premises los que tiene una mayor participación de mercado.

Uptime Institute: Las cargas se quedan en casa

El evento comenzó con la presentación de un analista del mercado, en este caso Enrique Hernández, director técnico del Uptime Institute para América Latina. El analista indicó que en base a dos estudios de su institución (el COVID-19 Intelligence Collection y el Uptime Institute Global Data Center Survey 2020) ofrecería un panorama del actual uso que se hace de los centros de datos.

Panduit, Uptime Institute, Get to Know Panduit Online Summit

El primer dato que mostró fue sobre cuál consideraban los responsables de los centros de datos que es el actual mayor riesgo para ellos. La respuesta más frecuente (32%) fue la reducción en el personal que se encarga del centro de datos. Lo interesante de esta respuesta es que es nueva en esta posición, ya que en una encuesta similar el año anterior la respuesta más común fue la pérdida de negocios.

De acuerdo con Hernández, esta respuesta se debe a que los centros de datos son instalaciones que normalmente trabajan con poco personal -un centro de datos grande opera con 10 personas-, y con el riesgo de la COVID-19 se tiene que operar con aún menos personal debido a las medidas de distanciamiento social. Incluso, dijo el analista, se teme que los pocos que saben qué hacer en un centro de datos -ese es otro punto: no existen muchos que conozcan el trabajo de un centro de datos y entrenar a un trabajador toma tiempo- queden fuera del trabajo si es que se contagian con el virus.

Otro de los hallazgos de los estudios del Uptime Institute es que la mayoría de los responsables de los centros de datos consideran que la inteligencia artificial va a reemplazar a sus trabajadores, aunque no de inmediato. El Instituto encontró que el 34% de los encuestados consideran que esto va a ocurrir dentro de los siguientes cinco años, mientras que el 43% también considera que este proceso va a ocurrir, pero que va a tomar incluso más de cinco años. El 23% considera que eso no va a ocurrir. En general, el 77% considera que el proceso sí se va a dar.

Otra de los resultados mostrados por Hernández trata sobre las caídas que se han presentado en los centros de datos. El 9% de los encuestados afirmó que sufrieron alguna caída severa, el 21% indicó que sufrió una caída seria, el 47% -el mayor porcentaje de todos- señaló que sufrió de una caída notable, mientras que el 20% sostuvo que su caída fue mínima. El 15% indicó que sufrió de alguna caída insignificante.

Obviamente, era necesario preguntar si los centros habían sufrido alguna caída debido a la pandemia de la COVD-19. Un contundente 84% indicó que no. Solo el 10% indicó que había sufrido alguna ralentización, y un 4% sostuvo que sí había sufrido algún tipo de caída o interrupción. Un 5% indicó que había sufrido algún tipo de incidente pero que no sabía si este se relacionaba con la COVID-19.

Hernández resaltó que, aunque la mayoría no había sufrido algún tipo de incidente relacionado con la COVID-19, no se podía apreciar que los centros de datos contaran con algún procedimiento para enfrentar el virus.

También se hicieron preguntas sobre la computación en el borde. Cuando se preguntó sobre si se requerirá de Edge Computing en el 2020, el 37% de los encuestados afirmó que su organización no va a requerir de ésta. Sin embargo, el porcentaje de los que creen que, más bien, su institución va a ser un mayor uso de la computación en el borde es mayor: el 40% consideran que su uso se va a incrementar 'algo', mientras que el 18% cree que se va a incrementar 'significativamente'. Solo el 5% considera que va a disminuir.

La visibilidad de la resiliencia TI del proveedor de nube fue otro de los factores por los cuales se preguntó, y resultó ser fundamental para que los encuestados decidieran si colocan o no sus cargas de trabajo críticas en esa nube. De acuerdo con el Instituto, el 52% afirmó que no colocan sus cargas de trabajo de misión crítica en nubes pública, ni tienen planes para hacerlo. El 21% sostuvo que no colocan sus cargas de trabajo de misión crítica en nubes públicas pero que habría mayores probabilidades de que lo hagan si hubiese un mayor nivel de visibilidad de la resiliencia operativa del servicio.

El 17% de los encuestados señaló que colocan cargas de trabajo de misión crítica en nubes públicas y que tienen una adecuada visibilidad de la resiliencia operativa del servicio. Finalmente, el 10% indicó que sí colocan cargas de trabajo de misión crítica en nubes públicas, pero que no creen que tienen una adecuada visibilidad de la resiliencia operativa del servicio.

¿Qué es lo que se espera para el futuro de los centros de datos? Es lo que se denomina la 'siguiente normalidad', la cual fue dividida en dos fases por Hernández. La primera es la que corresponde a los siguientes 12 meses, y en ella se van a tener que enfrentar varios desafíos operativos: turnos aislados y largos, escasez de personal, protección del personal, reducción del mantenimiento, reaccionar a incidentes críticos, acceso limitado y controlado a los centros, reescritura de sus procedimientos y resiliencia de TI.

La fase 2 es la que corresponde a los siguientes cinco años y en ella se espera: impactos a mediano y largo plazo, la planificación de una pandemia se convierte en permanente, mayor importancia de la gestión de la automatización, mayor importancia de las herramientas de colaboración, cambio en el borde, los servicios críticos son aún más críticos, los gobiernos pueden buscar más control, y podría incrementarse el uso de la nube aún más.

El centro de datos del mañana

Aunque la presentación de Hernández del Uptime Institute fue muy completa, aún quedaba por ver lo que iba a decir el anfitrión. Y de hecho, con la presentación de Efrén Vargas, technical system engineer de Panduit, se tuvo un panorama incluso más claro del mercado de centros de datos, ya que se enfocó en los tipos de centros de datos que existen en la actualidad y hacia dónde se dirige su uso.

Get to Know Panduit Online Summit, datacenter

Para comenzar, Vargas mostró algunos gráficos en los que se podía ver lo que sucedía en Internet en un minuto. Y lo que se puede ver es que el tráfico de los grandes de la Red como YouTube, Google y Netflix no ha hecho sino aumentar. Esta tendencia se repite en América Latina, si se observa las tendencias del tráfico en la región se podrá observar que el tráfico IP va a tener un crecimiento estimado entre el 2017 y el 2022 de 21% (CAGR), pasando de 7 exabytes al mes a 19 exabytes al mes.

Los usuarios de Internet de la región van a pasar de 368 millones a 465 millones en el mismo periodo, mientras que los dispositivos conectados pasarían de 1.400 millones a dos mil millones también en ese mismo periodo. Y la velocidad promedio de la red en la región se incrementaría de 11,7 Mbps a 28,1 Mbps.

Es claro, según Vargas, que el tráfico va a aumentar, pero ¿qué ocurrirá con los centros de datos? De acuerdo a las cifras, vamos a continuar en un mundo híbrido, con tres diferentes tipos de centros de datos: el on premises, el colocation y el de hiperescala. El primero de ellos -se estima- tendrá una participación de 70% del mercado para el 2021, mientras que los de colocation tendrá una participación de 15% y los de hiperescala de 15%.

Aunque estos son los tres tipos de centros de datos que se pueden encontrar en el mercado, en realidad, existe un cuarto tipo que está haciendo su aparición: el centro de datos de borde (edge) o micro centro de datos (microDC). Estos centros son especialmente útiles en aquellos lugares en donde se deba realizar un poco de procesamiento porque es necesario tomar alguna acción en base a ese procesamiento. Son centros que por su cercanía con el dispositivo que origina los datos que va a procesar -como en la IoT- ofrecen una latencia baja o ultrabaja, y se comunican generalmente a través de medios inalámbricos como la señal celular, el Wi-Fi, el Bluetooth, e incluso la radiofrecuencia.

Existen otros microDC que se encuentran un poco más alejados del borde, en el near edge, y ofrecen una latencia baja o media. Estos se comunican a través de la fibra y de algunos medios inalámbricos como la señal celular o las microondas.

Más alejados del borde y más cercanos al core se encuentran los centros de datos de colocation, mientras que en el core se encuentran los de hiperescala.

Estos diferentes tipos de centros de datos -a decir de Vargas- no compiten entre ellos, sino que se complementan.

Si se observan los centros de datos por ingresos, se puede advertir que los que mayor crecimiento tendrán son los de las grandes empresas, aunque eso no quiere decir que los centros de datos de hiperescala, que son los más conocidos en la nube pública, no vayan a crecer.

De hecho, se estima que este grupo de centros va a crecer 13,9% entre el 2018 y el 2023, siendo Amazon el que mayor participación de mercado tenga con 30,2%, seguido de Microsoft con 14,1% y de Google con 5,3%. En una cuarta posición se encuentra Alibaba con 4,2%, acompañado por otra empresa china, China Telecom, que tiene el 3,6%. Le sigue en la sexta posición IBM con 2%.

Como ya se sabe, la nube tiene beneficios que la hacen atractiva (costos reducidos, aumento de ingresos, flexibilidad y necesidad competitiva) pero, a pesar de ello, Vargas habló de que en la actualidad se puede apreciar un llamado 'efecto bumerang'; es decir, las cargas de trabajo vuelven a los centros de datos on premises.

En una encuesta del 2017, dos tercios de los CIO encuestados señalaron que habían traído de vuelta sus cargas de trabajo. Y Vargas explicó que este comportamiento se debe a que para compañías de cierto tamaño el costo mensual de la nube puede ser mayor que mantener los datos en servidores locales, estas condiciones se presentan por lo general en compañías de tecnología y grandes empresas con un presupuesto de TI superior a los 50 millones de dólares. La nube sigue siendo atractiva para las nuevas y pequeñas empresas que prefieren un modelo en el que pagan a medida que crecen.

En cuanto a los centros de colocation, Vargas mostró que ese mercado también va a crecer. Se estima que entre el 2018 y el 2023 aumentará 8,5%, y que las empresas con mayor participación de mercado son Equinix (19,5%), DRT (11,4%) y China Telecom (4,9%).

En este mercado, enfatizó Vargas, es necesario comprender que el control de la instalación la tiene el centro de datos, pero el área de los racks es del inquilino que se encuentra ahí.

Finalmente, Vargas indicó que nos encontramos en un momento en el que el mercado Edge va a comenzar a crecer. De hecho, se espera que este mercado llegue a los 28.840 millones de dólares en el 2025, registrando un crecimiento de 54% entre el 2019 y el 2025.

Y ¿a qué se debe este crecimiento? A la enorme cantidad de datos que se van a generar en el borde. Por ejemplo, se estima que para este año un vehículo autónomo podrá generar hasta 4TB de datos al día, un avión conectado generaría 5TB y una fábrica inteligente podría llegar a la pasmosa cifra de 1PB de datos diarios. Y por si esas cifras no fueran suficientes, se estima que un proveedor de video desde la nube generaría 750PB de datos diarios.

Los centros de datos, como se puede ver, serán más necesarios que nunca, y las diversas formas en las que se encuentran en el mercado se complementarán para poder hacer frente al aluvión de datos que ya se tiene en el presente y se tendrá en el futuro.