Llegamos a ustedes gracias a:



Noticias

NVIDIA anuncia nuevos productos para la HPC con IA

[18/11/2020] El día de ayer NVIDIA anunció a través de Marcel Saraiva, gerente de negocio de NVIDIA, un conjunto de productos dirigidos al mercado de la computación de alto rendimiento (HPC, por sus siglas en inglés) que incorporan tecnología de inteligencia artificial en ellos. Se trató de una nueva GPU, productos de su línea DGX y productos de networking.

GPU A100 de 80 GB: El primero de los productos presentados fue la GPU A100 de 80GB. Esta GPU

con la tecnología HBM2e duplica la memoria de alto ancho de banda de la GPU A100 de 40GB a 80GB. Además, ofrece más de dos terabytes por segundo de ancho de banda de memoria. Esto permite que los datos se envíen rápidamente a la A100, la GPU de centro de datos más rápida del mundo, de acuerdo con NVIDIA. De esta manera, los investigadores pueden acelerar sus aplicaciones todavía más y trabajar con modelos y conjuntos de datos aún más grandes.

La GPU NVIDIA A100 de 80GB está disponible en los sistemas NVIDIA DGXTM A100 y NVIDIA DGX StationTM A100, que también se anunciaron y se esperan que se envíen este trimestre.

Se espera que los principales proveedores de sistemas, como Atos, Dell, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta y Supermicro, comiencen a ofrecer sistemas desarrollados con las placas base integradas HGX A100 con configuraciones de cuatro (4) u ocho (8) GPUs A100 de 80GB en la primera mitad del 2021.

NVIDIA DGX Station A100

NVIDIA DGX Station A100: Otro de los productos presentados fue la NVIDIA DGX Station A100, el primer servidor para grupos de trabajo a petaescala del mundo, según la compañía. La DGX Station A100, la segunda generación del sistema de inteligencia artificial, acelera las exigentes cargas de trabajo de aprendizaje automático y ciencia de datos para los equipos que trabajan en oficinas corporativas, instalaciones de investigación, laboratorios u oficinas caseras.

La DGX Station A100 cuenta con 2,5 petaflops de rendimiento en inteligencia artificial y es el único servidor para grupos de trabajo con cuatro de las GPU NVIDIA A100 Tensor Core más recientes y totalmente interconectadas con NVIDIA NVLink, lo que proporciona hasta 320GB de memoria de GPU.

NVIDIA también señaló que la DGX Station A100 es también el único servidor para grupos de trabajo compatible con la tecnología de múltiples instancias de GPU de NVIDIA (MIG). Con MIG, una sola DGX Station A100 proporciona hasta 28 instancias de GPU separadas para ejecutar trabajos en paralelo y admitir varios usuarios sin afectar el rendimiento del sistema.

NVIDIA Mellanox InfiniBand: Finalmente, el último de los productos en ser anunciados fue la siguiente generación de NVIDIA Mellanox 400G InfiniBand, dirigida a desarrolladores de inteligencia artificial e investigadores científicos.

Según lo señalado, la séptima generación de Mellanox InfiniBand proporciona una latencia ultrabaja y duplica la tasa de transferencia de datos con NDR 400 Gb/s. También agrega nuevos motores de computación en la red de NVIDIA para proporcionar una aceleración adicional.

"Los principales fabricantes de infraestructura tecnológicas, entre los cuales se encuentran Atos, Dell Technologies, Fujitsu, Inspur, Lenovo y Supermicro, planean integrar las soluciones NVIDIA Mellanox 400G InfiniBand en sus ofertas de HPC y soluciones empresariales. Estos compromisos se complementan con una amplia compatibilidad de parte de los principales socios de infraestructura de almacenamiento, como DDN e IBM Storage, entre otros, indicó Saraiva.

NVIDIA Mellanox NDR 400G InfiniBand ofrece el triple de densidad de puertos del switch y aumenta la potencia de aceleración de la inteligencia artificial en 32 veces. Además, aumenta en cinco veces el rendimiento bidireccional combinado con el sistema de switches, hasta lograr 1,64 petabits por segundo. Esto les permite a los usuarios ejecutar cargas de trabajo más grandes con menos limitaciones.