Llegamos a ustedes gracias a:



Noticias

Intel detalla la hoja de ruta de las IPU para liberar CPUs

[11/05/2022] Intel apuesta por que las operaciones de los centros de datos del futuro dependerán de servidores cada vez más potentes que ejecuten CPU programables basadas en ASIC, y su apuesta se basa en el desarrollo de unidades de procesamiento de infraestructuras (IPU, por sus siglas en inglés), que son los dispositivos de red programables de Intel diseñados para reducir la sobrecarga y liberar rendimiento para las CPU.

Intel se encuentra entre un número cada vez mayor de proveedores -entre los que se encuentran Nvidia, AWS y AMD- que trabajan en la creación de smartNICs y DPUs para dar soporte a servicios de nube, computación, redes, almacenamiento y seguridad definidos por software, y diseñados para su rápida implantación en redes de borde, de colocación o de proveedores de servicios.

La IPU inicial de Intel combina una CPU Xeon y una FPGA, pero en última instancia se convertirá en un potente ASIC que puede personalizarse y controlarse con el software IPDK (Infrastructure Programmer Development Kit), basado en un sistema abierto. El IPDK se ejecuta en Linux y utiliza herramientas de programación como SPDK, DPDK y P4 para que los desarrolladores puedan controlar la virtualización de la red y el almacenamiento, así como el aprovisionamiento de cargas de trabajo.

En el evento inaugural de Intel Vision, celebrado esta semana en Texas, Intel habló de otros nuevos chips y de cómo la inteligencia artificial se integrará en el centro de datos. También presentó una hoja de ruta para el desarrollo de sus IPU, y detalló por qué la cartera de dispositivos será una parte importante de sus planes para los centros de datos.

En lo que respecta a su hoja de ruta para las IPU, Intel dijo que entregará dos IPU de 200Gb a finales de año. Una de ellas, denominada Mount Evans, se ha desarrollado con el grupo Google Cloud de Alphabet Inc. y, por el momento, se dirigirá a los servidores de centros de datos de gama alta e hiperescaladores.

La IPU Mount Evans, basada en ASIC, es compatible con casos de uso existentes, como la descarga de vSwitch, los firewalls y el enrutamiento virtual. Implementa una interfaz de almacenamiento NVM acelerada por hardware a partir de la tecnología Intel Optane para emular dispositivos NVMe.

La segunda IPU, cuyo nombre en clave es Oak Springs Canyon, es la FPGA de nueva generación del proveedor que cuenta con un procesador Xeon D y una FPGA Intel Agilex para gestionar la red con lógica programable personalizada. Ofrece una descarga de funciones de virtualización de red para cargas de trabajo como el conmutador virtual abierto (OVS) y funciones de almacenamiento como NVMe sobre tejido.

De cara al futuro, Intel dijo que una IPU de tercera generación con nombre en código Mount Morgan y una IPU basada en FPGA con nombre en código Hot Springs Canyon se entregarán en el marco temporal del 2023 o 2024 y aumentarán el rendimiento de la IPU a 400Gb. En el 2025 o el 2026, Intel espera entregar IPUs de 800Gb.

Una de las claves de la tecnología de las IPU de Intel es el rápido motor de procesamiento de paquetes programable que admiten todos los dispositivos. Tanto si se trata de una FPGA como de una oferta basada en ASIC, los clientes pueden programarla utilizando el lenguaje de programación P4, que existe desde el 2013 y admite procesos como búsquedas, cambios, modificaciones, encriptación y compresión, según Nick McKeown, vicepresidente senior y director general del Network and Edge Group (NEX) de Intel. McKeon ha fundado varias startups de redes, como Barefoot Networks, que Intel adquirió en el 2019.

"Los centros de datos empresariales o basados en la nube pueden programar servidores y dispositivos desde el centro de datos hasta el borde con un procesamiento de paquetes común que le permite controlar la congestión de la red, la encapsulación, el enrutamiento y otras características para controlar las cargas de trabajo", sostuvo McKeown. "Y esperamos que esta tecnología tenga muchas aplicaciones en firewalls, gateways, equilibrio de carga empresarial, descarga de almacenamiento, etc. Esperamos que las IPU sean dispositivos de computación extremadamente eficientes para todo este tipo de aplicaciones de red".

"Cuando echemos la vista atrás dentro de unos años, creo que nos encontraremos con que los centros de datos empresariales y los hiperescaladores pensarán en la red que interconecta las CPU y los aceleradores... como algo que programan. Pensarán en ella como IPUs que programan", anotó McKeown.

La idea es permitir a las empresas ejecutar sus infraestructuras de la misma forma que hoy solo puede permitirse un hiperescalador, indicó Soni Jiandani, cofundador y director de negocios de Pensando, en un reciente artículo de Network World. AMD compró recientemente Pensando por 1.900 millones de dólares para tener acceso a la arquitectura basada en DPU y a la tecnología que Pensando desarrolla. "Hay una amplia gama de casos de uso, como el 5G y el IoT, que necesitan soportar mucho tráfico de baja latencia", agregó Jiandani.

Las aplicaciones de seguridad también son un caso de uso emergente para las IPU, DPU y smartNIC.

En los entornos virtuales, la incorporación de funciones como el cifrado del tráfico de red en las smartNIC será importante, según VMware. "En nuestro caso, también tendremos el firewall NSX y el software SDN virtual completo o el switch vSphere en la smartNIC que permitirá a los clientes tener un sistema de seguridad distribuido y totalmente programable", anotó Paul Turner, vicepresidente de gestión de productos de VMware, en una entrevista anterior sobre la aparición de las smartNIC en la empresa.

"En términos de encriptación cero y procesamiento rápido, podemos hacer encriptación a velocidad de línea con la IPU-200G hoy, 400G en el futuro-de los algoritmos de encriptación más populares. Así, nuestros clientes pueden programar los comportamientos que mejor se adapten a su entorno, o pueden limitarse a adoptar algoritmos de cifrado estándar", señaló McKeown de Intel.