Llegamos a ustedes gracias a:



Columnas de opinión

Puede que usted ya tenga una mentalidad sostenible

Por: Mike Feibus, analista principal de FeibusTech

[31/12/2022] Las iniciativas de sostenibilidad corporativa se están abriendo camino cada vez más en el centro de datos. Pero muchos CIO que invierten en tecnología de punta para reducir las emisiones de carbono ni siquiera son conscientes de que están actuando contra el cambio climático. Solo intentan mejorar su cuenta de resultados.

Esto coloca a los CIO en una posición envidiable. En la mayoría de los rincones de la empresa, la toma de decisiones en materia de medioambiente, sociales y de gobernanza (ESG, por sus siglas en inglés) exige cuadrar los posibles beneficios climáticos con el gasto añadido, la incertidumbre y la interrupción de los combustibles, materiales y procesos de nueva generación.

[Reciba lo último de CIO Perú suscribiéndose a nuestro newsletter semanal]

Pero los responsables de TI tienen la oportunidad de eludir ese problema en el centro de datos, responsable de cerca del 2% de las emisiones de gases de efecto invernadero de Estados Unidos. Las innovaciones emergentes están ayudando a convertir sus enormes complejos de servidores, que consumen muchos recursos, en un raro frente libre de contrapartidas en la guerra de la sostenibilidad, donde la reducción de las emisiones de carbono suele ir acompañada de una disminución de los costos.

Cada vez más, es un frente en el que merece la pena invertir. Las preocupaciones por la oferta, como los elevados precios del combustible y la inestabilidad geopolítica, son solo parte de la motivación. La energía ya es el mayor gasto del centro de datos. Y el deseo aparentemente insaciable de obtener más información a partir de más datos está impulsando despliegues más densos de bastidores repletos de CPU y GPU cada vez más hambrientas de energía.

Para empeorar las cosas, los centros de datos están llegando a un punto en el que la energía necesaria para refrigerar los bastidores repletos de esos potentes servidores está aumentando más rápido de lo que se necesita para hacerlos funcionar.

Según algunas estimaciones, hasta el 40% del presupuesto energético de un centro de datos se dedica ahora a la refrigeración. Para intentar invertir la tendencia, muchos gestores de instalaciones han adoptado la refrigeración evaporativa. Esto puede ayudar a reducir la demanda de electricidad de las unidades de calefacción, ventilación y aire acondicionado y de los ventiladores de a bordo. Pero requiere enormes cantidades de agua: en conjunto, unos 174 millones de galones al año en Estados Unidos.

Eso es insostenible. Por eso, los directores de sistemas de información preocupados por los costes y la sostenibilidad miran más allá de la refrigeración evaporativa.

"La forma en que hemos estado refrigerando los centros de datos va a tener que cambiar", afirma Scott Tease, vicepresidente y director general de HPC e IA de Lenovo. "La refrigeración por aire tradicional no puede seguir el ritmo. Y ya no tenemos agua para suministrar las cantidades masivas que requiere la refrigeración por evaporación. Es un gran, gran problema".

Cada vez más empresas reconocen que reducir el consumo de agua en el centro de datos es tan urgente como recortar el consumo de combustibles fósiles. AWS, por ejemplo, ya ha puesto manos a la obra. En su evento re:Invent, celebrado a finales del mes pasado, el mayor proveedor de servicios en la nube del mundo se comprometió a no utilizar agua para el 2030. Además, la empresa reiteró su compromiso de alimentar el 100% de sus operaciones con energías renovables para el 2030. Durante su discurso de apertura, los asistentes aplaudieron cuando Adam Selipsky, consejero delegado, les dijo que la empresa ya había recorrido más del 85% del camino.

"Por favor, que todo el mundo se implique", imploró Selipsky a la multitud. "Es un problema de todos".

[Los CIO se toman en serio la sostenibilidad]

IA para minimizar el costo de la IA

Como ocurre con la mayoría de las actualizaciones de centros de datos, las opciones de eficiencia energética son mucho más variadas y abundantes si se parte de cero con una nueva instalación, ya sea en las instalaciones, en una ubicación compartida o en la nube. Dicho esto, los CIO disponen de opciones convincentes para reducir las emisiones de carbono -y los costos energéticos- que son eficaces independientemente de si se implantan en nuevas instalaciones o en actualizaciones de servidores individuales en bastidores existentes.

Irónicamente, una forma cada vez más popular de revertir el impacto de la creciente IA y el aprendizaje automático (ML, por sus siglas en inglés) en la demanda de energía de los centros de datos es con más IA y ML: es decir, software y servicios para ayudar a TI a optimizar el almacenamiento y las cargas de trabajo en los activos existentes, para garantizar las distribuciones más rentables y respetuosas con el clima.

Anthony Behan, director general de los esfuerzos de Cloudera en Telecomunicaciones, Medios y Entretenimiento, dijo que la transición a 5G de alta potencia ha hecho que sus clientes se centren en minimizar las transferencias de datos para impulsar el ahorro de energía -y, como consecuencia, el costo- al empujar las cargas de trabajo de datos más cerca de donde se recopilan y almacenan los datos.

"En telecomunicaciones, todos los ejecutivos de nivel C tienen el costo como una partida en su revisión de rendimiento", anotó Behan. "Es algo en lo que piensan constantemente. Así que esto suele ser lo que más les llama la atención".

Refrigeración líquida

Los responsables de TI pueden reducir considerablemente la demanda de energía con la refrigeración líquida, que se está convirtiendo rápidamente en una de las principales alternativas. Es mucho más eficiente que la refrigeración por aire, e incluso que la evaporativa. Los proveedores afirman que pueden ahorrar hasta un 40% en la factura energética de refrigeración, y permitir implementaciones de servidores y bastidores de mucha mayor densidad.

Y como los sistemas de refrigeración líquida son de circuito cerrado, no hay que pagar por el agua.

Esta tecnología lleva años utilizándose para refrigerar supercomputadoras. Solo recientemente ha empezado a introducirse en los centros de datos de uso cotidiano. Los proveedores ofrecen ahora sistemas de refrigeración líquida para bastidores, servidores e incluso componentes individuales. Nvidia, por ejemplo, anunció planes para empezar a ofrecer GPU refrigeradas por líquido este verano.

Intel, el proveedor de literalmente el otro componente de servidor más caliente, ha estado trabajando durante varios años para ayudar a garantizar opciones viables de refrigeración líquida para el centro de datos. En el 2019, se asoció con el pionero Lenovo para emparejar la tecnología de refrigeración líquida Neptune de Lenovo y la plataforma de infraestructura TruScale con el hardware de servidor Xeon Scalable de Intel para aplicaciones HPC y AI.

Más recientemente, Intel ha anunciado esfuerzos con otros proveedores, incluidos Submer y Green Revolution Computing, así como una inversión de 700 millones de dólares en una instalación de I+D de refrigeración líquida en Oregón.

Empezar de cero

Los CIO que buscan implementar un nuevo sitio, ya sea en las instalaciones, con un proveedor de colocación o un proveedor de nube, pueden encontrar oportunidades para reutilizar el calor que difunden las implementaciones de refrigeración líquida.

Cloud&Heat, por ejemplo, ofrece centros de datos autónomos que pueden calentar edificios de oficinas cercanos en invierno. Si busca otras aplicaciones del calor difundido, puede ver lo que hacen otros en este mapa de proyectos. El proveedor alemán de tecnologías sostenibles en la nube y locales coordina el esfuerzo de mapeo bajo los auspicios del Open Compute Project.

De hecho, uno de los emplazamientos del mapa de la reutilización es una instalación de Montreal que está desarrollando QScale, una empresa emergente que ofrece centros de datos de alta densidad. La primera fase, que se espera entre en funcionamiento a principios del 2023, cumple la mayoría de los requisitos de sostenibilidad. Por ejemplo:

  • Situado en un clima septentrional que requiere mucha menos refrigeración,
  • Funciona casi totalmente con energías renovables, y
  • Proporciona calor a lo que podría considerarse una instalación agrícola: un complejo de invernaderos construidos para cultivar frutas y verduras durante el invierno.

"Todos estamos acostumbrados a que las cosas sostenibles sean más caras", afirma Martin Bouchard, cofundador y consejero delegado de QScale. "Pero nosotros no somos más caros que un simple centro de datos sucio. Así que se puede tener una producción de carbono sostenible y limpia y ser super eficiente al mismo tiempo".

Eso debería ser música para los oídos de los CIO, independientemente de si están trabajando para hacer que sus centros de datos sean más sostenibles. O simplemente para reducir costos.

Mike Feibus es analista principal de FeibusTech, una empresa de análisis y estrategia de mercado de Scottsdale, Arizona, centrada en ecosistemas móviles y tecnologías cliente.