Llegamos a ustedes gracias a:



Noticias

Nvidia acelera la IA y el modelado climático

[23/02/2022] Hace años que los desarrolladores descubrieron que el principal producto de Nvidia, la GPU, era útil no solo para el renderizado de videojuegos, sino también para la computación de alto rendimiento del tipo utilizado en el modelado 3D, la predicción meteorológica o el entrenamiento de modelos de IA, y es en aplicaciones empresariales como éstas en las que el CEO, Jensen Huang, centra su atención en la conferencia GTC 2022 de la compañía esta semana.

Nvidia espera facilitar a los CIOs la creación de gemelos digitales y modelos de aprendizaje automático para asegurar la computación empresarial, e incluso acelerar la adopción de la computación cuántica con una gama de nuevo hardware y software.

Ver el doble

Los gemelos digitales, modelos numéricos que reflejan los cambios en los objetos del mundo real útiles para el diseño, la fabricación y la creación de servicios, varían en su nivel de detalle. Para algunas aplicaciones, una simple base de datos puede ser suficiente para registrar el historial de servicio de un producto -cuándo se fabricó, a quién se envió, qué modificaciones se han aplicado-, mientras que otras requieren un modelo 3D completo que incorpore datos de sensores en tiempo real que puedan utilizarse, por ejemplo, para avisar con antelación de la falla de un componente o de la lluvia. Nvidia se sitúa en el extremo superior de esta gama.

En la GTC 2022, la compañía anunció nuevas herramientas para construir gemelos digitales para aplicaciones científicas y de ingeniería. Dos grupos de investigadores ya están utilizando el marco de IA Modulus de Nvidia para desarrollar modelos de aprendizaje automático de física, y su plataforma de simulación de mundos virtuales Omniverse 3D para pronosticar el tiempo con mayor confianza y rapidez, y para optimizar el diseño de parques eólicos.

Los ingenieros de Siemens Gamesa Renewable Energy están utilizando la combinación Modulus-Omniverse para modelar la ubicación de los aerogeneradores en relación con otros para maximizar la generación de energía y reducir los efectos de las turbulencias generadas por una turbina en sus vecinos.

Mientras que el modelo Siemens-Gamesa estudia los efectos del viento en una zona de unos pocos kilómetros, las ambiciones de los investigadores que trabajan en FourCastNet son mucho mayores.

FourCastNet (llamado así por los operadores neuronales de Fourier utilizados en sus cálculos) es una herramienta de previsión meteorológica entrenada con 10 terabytes de datos. Emula y predice fenómenos meteorológicos extremos como huracanes o ríos atmosféricos como los que provocaron inundaciones en el noroeste del Pacífico y en Sidney (Australia) a principios de marzo. Nvidia afirma que puede hacerlo hasta 45 mil veces más rápido que los modelos tradicionales de predicción numérica.

El sistema es un primer paso hacia un proyecto aún más ambicioso que Nvidia denomina Earth-2. Anunció en noviembre del 2021 que planea construir una supercomputadora con sus propios chips y utilizarlo para crear un gemelo digital de la Tierra a un metro de resolución en su software Omniverse para modelar los efectos del cambio climático.

Para ayudar a otras empresas a construir y mantener sus propios gemelos digitales, a finales de este año Nvidia ofrecerá sistemas informáticos OVX que ejecutarán su software Omniverse en racks cargados con sus GPU, almacenamiento y tejido de conmutación de alta velocidad.

Nvidia también está introduciendo Omniverse Cloud para permitir a los creadores, diseñadores y desarrolladores colaborar en los diseños 3D sin necesidad de acceder a una potencia de computación de alto rendimiento propia, una forma de que los CIOs amplíen temporalmente su uso de la tecnología sin grandes inversiones de capital.

Además, se está asociando con fabricantes de robótica y proveedores de datos para aumentar el número de conectores Omniverse que los desarrolladores pueden utilizar para que sus gemelos digitales reflejen mejor el mundo real e interactúen con él.

Ya está trabajando con los minoristas Kroger y Lowes, que utilizan Omniverse para simular sus tiendas y las cadenas logísticas que las abastecen.

Aprendizaje acelerado

La ejecución de los modelos de aprendizaje automático puede ser intensiva desde el punto de vista computacional, pero lo es aún más el entrenamiento, ya que el proceso requiere un sistema que pueda realizar cálculos complejos sobre grandes volúmenes de datos. En la GTC2022, Nvidia presentó una nueva arquitectura de GPU, Hopper, diseñada para acelerar estas tareas, y muestró el primer chip basado en ella, el H100.

Nvidia afirmó que el chip permitirá ejecutar en tiempo real grandes modelos de lenguaje y sistemas de recomendación, cada vez más comunes en las aplicaciones empresariales, e incluye nuevas instrucciones que pueden acelerar la optimización de rutas y las aplicaciones genómicas. La capacidad de segmentar la GPU en múltiples instancias -como las máquinas virtuales de una CPU- también la hará útil para ejecutar varias aplicaciones más pequeñas, en las instalaciones o en la nube.

En comparación con el modelado científico, el entrenamiento de modelos de IA requiere menos precisión matemática, pero mayor rendimiento de los datos, y el diseño de la H100 permite a las aplicaciones compensar una cosa con la otra. El resultado, según Nvidia, es que los sistemas construidos con el H100 podrán entrenar modelos nueve veces más rápido que los que utilizan su predecesor, el A100.

Computación segura

Nvidia afirmó que sus nuevos chips H100 también permitirán ampliar la capacidad de computación confidencial a la GPU, una función que hasta ahora solo estaba disponible en las CPU. La computación confidencial permite a las empresas procesar de forma segura datos sanitarios o financieros en el enclave seguro de un procesador especialmente diseñado para ello, descifrándolos a su llegada y cifrando los resultados antes de enviarlos al almacenamiento.

La opción de procesar estos datos de forma segura en una GPU, incluso en una nube pública o en una instalación de colocación, podría permitir a las empresas acelerar el desarrollo y el uso de modelos de aprendizaje automático sin aumentar el gasto de capital.

La llegada de la computación cuántica

La computación cuántica promete -o quizás amenaza- con barrer grandes franjas del mercado actual de la computación de alto rendimiento con procesadores cuánticos que explotan fenómenos subatómicos para resolver problemas de optimización hasta ahora intratables. Cuando llegue ese día, puede que las ventas de Nvidia en el mercado de la supercomputación se resientan, pero mientras tanto sus chips y su software están desempeñando un papel en la simulación de sistemas de computación cuántica

Los investigadores de la intersección entre la computación cuántica y la clásica han creado un lenguaje de máquina de bajo nivel llamado Representación Intermedia Cuántica. Nvidia ha desarrollado un compilador para este lenguaje, nvq++, que será utilizado por primera vez por los investigadores del Laboratorio Nacional de Oak Ridge, y un SDK para acelerar los flujos de trabajo cuánticos, cuQuantum, que está disponible como contenedor optimizado para ejecutarse en su GPU A100.

Estas herramientas podrían ser útiles para los cioS que no estén seguros de las ventajas que ofrecerá la computación cuántica a sus empresas, o para los que ya estén seguros y quieran ayudar a sus desarrolladores a crear un conjunto de habilidades cuánticas en un momento en el que las computadoras cuánticas reales siguen siendo curiosidades de laboratorio.