
[31/07/2023] La adopción por parte de las empresas de la inteligencia artificial (IA) generativa, capaz de generar texto, imágenes u otros medios en respuesta a instrucciones, se encuentra en sus primeras fases, pero se espera que aumente rápidamente a medida que las organizaciones encuentren nuevos usos para esta tecnología.
Según Frances Karamouzis, analista de Gartner, "el frenesí de la IA generativa no muestra signos de remitir. Las organizaciones están luchando para determinar cuánto dinero en efectivo verter en soluciones de IA generativa, qué productos valen la pena la inversión, cuándo comenzar y cómo mitigar los riesgos que vienen con esta tecnología emergente".
[Reciba lo último de CIO Perú suscribiéndose a nuestro newsletter semanal]
Bloomberg Intelligence predice que el mercado de la IA generativa crecerá a un asombroso 42% anual durante la próxima década, pasando de 40 mil millones de dólares en el 2022 a 1,3 mil millones.
La IA generativa puede ayudar a los equipos de TI de diversas maneras: puede escribir código de software y scripts de red, proporcionar solución de problemas y resolución de incidencias, automatizar procesos, proporcionar formación e incorporación, crear documentación y sistemas de gestión del conocimiento, y ayudar con la gestión y planificación de proyectos.
También puede transformar otras partes de la empresa, como los centros de llamadas, el servicio de atención al cliente, los asistentes virtuales, el análisis de datos, la creación de contenidos, el diseño y desarrollo, y el mantenimiento predictivo, por nombrar algunos.
Pero ¿podrán las infraestructuras de los centros de datos gestionar la creciente carga de trabajo generada por la IA generativa?
Impacto de la IA generativa en los requisitos informáticos
No hay duda de que la IA generativa formará parte de las estrategias de datos de la mayoría de las organizaciones en el futuro. Lo que los responsables de redes y TI deben hacer hoy es asegurarse de que sus infraestructuras de TI, así como sus equipos, están preparados para los cambios que se avecinan.
A medida que construyan y desplieguen aplicaciones que incorporen IA generativa, ¿cómo afectará eso a la demanda de potencia de cálculo y otros recursos?
"La demanda aumentará para los centros de datos tal y como los conocemos hoy en día, y cambiará drásticamente el aspecto de los centros de datos y su tecnología asociada en el futuro", afirma Brian Lewis, director general de asesoramiento de la consultora KPMG.
Las aplicaciones de IA generativa crean una demanda significativa de potencia de cálculo en dos fases: el entrenamiento de los grandes modelos de lenguaje (LLM) que forman el núcleo de los sistemas de IA generativa y, a continuación, el funcionamiento de la aplicación con estos LLM entrenados, afirma Raul Martynek, CEO del operador de centros de datos DataBank.
El entrenamiento de los LLM requiere una computación densa en forma de redes neuronales, donde miles de millones de ejemplos de lenguaje o imágenes se introducen en un sistema de redes neuronales, y se refinan repetidamente hasta que el sistema los "reconoce" tan bien como lo haría un ser humano", explica Martynek.
Según Martynek, las redes neuronales requieren clústeres de alta computación (HPC, por sus siglas en inglés) tremendamente densos con procesadores de GPU que funcionen de forma continua durante meses o incluso años. "Se ejecutan de forma más eficiente en infraestructuras dedicadas que pueden situarse cerca de los conjuntos de datos propios utilizados para el entrenamiento", señala.
La segunda fase es el "proceso de inferencia" o el uso de estas aplicaciones para hacer realmente consultas y devolver resultados de datos. "En esta fase operativa, se requiere una infraestructura más dispersa geográficamente que pueda escalar con rapidez y proporcionar acceso a las aplicaciones con menor latencia, ya que los usuarios que consulten la información querrán una respuesta rápida para los casos de uso imaginados".
Esto requerirá centros de datos en muchas ubicaciones, frente al modelo de nube pública centralizada que actualmente soporta la mayoría de las aplicaciones, sostiene Martynek. En esta fase, la demanda de potencia de cálculo de los centros de datos seguirá siendo elevada, afirma, "pero en relación con la primera fase dicha demanda se reparte entre más centros de datos".
La IA generativa impulsa la demanda de refrigeración líquida
Los responsables de redes y TI deben ser conscientes del impacto que la IA generativa tendrá en la densidad de servidores y lo que esto supone para los requisitos de refrigeración, las demandas de energía, las iniciativas de sostenibilidad, etc.
"No se trata solo de la densidad, sino del ciclo de trabajo de la frecuencia y la cantidad de uso de esos servidores en los picos de carga", afirma Francis Sideco, analista principal de Tirias Research. "Estamos viendo que empresas como NVIDIA, AMD e Intel, con cada generación de silicio de IA, intentan aumentar el rendimiento manteniendo la potencia y la térmica bajo control".
Incluso con estos esfuerzos, los presupuestos de energía siguen aumentando, anota Sideco. "Con lo rápido que están aumentando las cargas de trabajo, especialmente con GenAI, en algún momento nos daremos contra un muro".
La densidad de servidores "no tiene por qué aumentar como vimos con la tecnología blade y los hosts virtuales", añade Lewis. "Las innovaciones técnicas como los chips sin silicio, las unidades de procesamiento gráfico (GPU), la computación cuántica y el desarrollo de software basado en modelos y consciente del hardware podrán sacar más partido del hardware existente".
El sector ya ha estado experimentando con innovadoras técnicas de refrigeración líquida más eficientes que el aire, así como con la sostenibilidad en diversas ubicaciones, como el Proyecto Natick de Microsoft, un centro de datos submarino, afirma Lewis.
"Las técnicas tradicionales de refrigeración por aire, como el uso de ventiladores, conductos, rejillas de ventilación y sistemas de aire acondicionado, no son suficientes para satisfacer la demanda de refrigeración de hardware de cálculo de alto rendimiento como las GPU", señala Lewis. "Por eso, las tecnologías de refrigeración alternativas, como la refrigeración líquida, están ganando adeptos".
Según Lewis, la refrigeración líquida consiste en hacer circular refrigerantes, como agua u otros fluidos, a través de intercambiadores de calor para absorber el calor generado por los componentes de la computadora. "La refrigeración líquida es más eficiente energéticamente que la tradicional refrigeración por aire, ya que los líquidos tienen una conductividad térmica mayor que el aire, lo que permite una transferencia de calor mejor y más eficiente".
Los nuevos diseños de centros de datos tendrán que satisfacer mayores requisitos de refrigeración y demandas de potencia, afirma Martynek, lo que significa que los centros de datos del futuro tendrán que recurrir a nuevos métodos de refrigeración, como puertas traseras refrigeradas, agua hasta el chip o tecnologías de inmersión, para ofrecer la combinación adecuada de potencia, refrigeración y sostenibilidad.
Los operadores de centros de datos ya están introduciendo avances en refrigeración líquida, afirma Martynek. Por ejemplo, DataBank utiliza una nueva solución de refrigeración ColdLogik Dx Rear Door de QCooling en sus instalaciones de Atlanta, donde se encuentra la supercomputadora Georgia Tech.
"Esperamos un aumento significativo de las tecnologías de refrigeración líquida a la puerta y al chip, sobre todo porque las futuras generaciones de GPU consumirán aún más energía", afirma Martynek. "La demanda de más espacio de cálculo y potencia derivada de la adopción de la IA generativa impulsará sin duda la búsqueda de más eficiencias en el consumo de energía y la refrigeración."
Cómo afecta la IA generativa a los requisitos energéticos
Puede que cada vez sea más frecuente que los operadores de centros de datos construyan sus propias subestaciones eléctricas, afirma Martynek. "Las tensiones en la red eléctrica debido a la demanda y la transición a fuentes de energía renovables están creando más incertidumbre en torno al suministro de energía, y los nuevos calendarios de proyectos de centros de datos están fuertemente influenciados por la carga de trabajo de la compañía de servicios públicos y sus capacidades para manejar las necesidades de energía de las nuevas instalaciones", anota.
Disponer de una fuente de energía fiable y escalable será cada vez más importante para los operadores de centros de datos, tanto para satisfacer la demanda de energía generada por los clústeres de HPC, como para sortear los plazos y limitaciones de las compañías eléctricas, afirma Martynek.
DataBank está desplegando un nuevo estándar de diseño de centros de datos denominado Diseño Universal de Pabellón de Datos (UDHD, por sus siglas en inglés), que presenta un suelo de losa con refrigeración perimetral por aire y mayor espacio entre armarios, ideal para despliegues de nube a hiperescala y que puede instalarse rápidamente, sostiene Martynek.
"Este enfoque también nos permite añadir fácilmente un suelo elevado y un menor espacio entre armarios para cargas de trabajo empresariales más tradicionales", afirma Martynek. "Además, podemos añadir tecnologías de refrigeración de última generación, como intercambiadores de calor en la puerta trasera, configuraciones de puertas refrigeradas por agua o infraestructura de refrigeración directa de chips con un esfuerzo mínimo", añade.
En el futuro, el diseño tecnológico de los centros de datos "tendrá que adaptarse a mayores demandas de computación, como memoria de acceso rápido, redes de almacenamiento/área de almacenamiento robustas, redes de alto rendimiento tolerantes a retrasos/interrupciones y tecnologías de bases de datos de big data", afirma Lewis.
Los equipos informáticos deben prepararse
Los equipos de redes y centros de datos deben prepararse ya. "Estos cambios se están produciendo demasiado rápido como para que nadie pueda estar totalmente preparado", afirma Sideco. "No son sólo los equipos de red/centro de datos, sino que es realmente todo el ecosistema el que necesita abordar todos los cambios que se necesitan".
Eso incluye a los proveedores de silicio para manejar el aumento de las cargas de trabajo y las necesidades de energía. "Proporcionan las distintas opciones que los equipos de redes y centros de datos utilizan para intentar [abordar] los requisitos cambiantes", señala Sideco. "La colaboración entre todos ellos va a ser importante para intentar seguir el ritmo de la demanda".
Otros confían más en los preparativos. "En TI siempre estamos preparados para la próxima perturbación", afirma Lewis. "La verdadera pregunta es: ¿invertirá la empresa en lo necesario para cambiar? El ahorro de costos sigue estando a la vanguardia de la externalización de centros de datos. Sin embargo, el negocio aún no ha adoptado marcos modernos de costo total de propiedad de TI y de realización de valor para medir la capacidad de TI para responder y adaptarse a la velocidad a la que tecnologías como la IA están impulsando el negocio".
"Para prepararse para la adopción de la IA, los centros de datos necesitan identificar la estrategia de negocio y de capital adecuada para que puedan invertir en la infraestructura y las herramientas necesarias, y desarrollar una fuerza de trabajo adecuadamente capacitada", sostiene Martynek. "Contar con las personas adecuadas para ejecutar la estrategia es tan importante como tener la estrategia correcta".
Basado en el artículo de Bob Violino (Network World) y editado por CIO Perú
Puede ver también: