Llegamos a ustedes gracias a:



Noticias

Servidores con la GPU Tesla P100 de Nvidia se entregarán el próximo año

[11/04/2016] La nueva Tesla P100, la GPU más rápida de Nvidia hasta el momento, estará disponible en los servidores el año próximo, afirmó la empresa.

Dell y Hewlett Packard Enterprise, Cray e IBM comenzarán a tomar pedidos para servidores con la Tesla P100 en el cuarto trimestre de este año, afirmó el CEO de Nvidia Jen-Hsun Huang durante una conferencia en la GPU Technology Conference en San José, California.

Los servidores comenzarán a enviarse en el primer trimestre del próximo año, afirmó Huang el martes.

La GPU también se enviará a las empresas que diseñan servidores de hiperescala de forma interna, y luego a fábricas de manufactura tercerizadas. Estará disponible para "servidores de nube in house para finales de año, afirmó Huang.

Nvidia está dirigiendo las GPU a los sistemas de aprendizaje profundo, en los cuales los algoritmos ayudan en la correlación y clasificación de los datos. Estos sistemas podrían ayudar a los automóviles sin conductor, robots y drones a identificar objetos. La meta es acelerar el tiempo de aprendizaje de tales sistemas para que la exactitud de los resultados mejore con el tiempo.

En la actualidad, las GPU de Nvidia son ampliamente usadas en las supercomputadoras. Dos de las supercomputadoras más rápidas del mundo usan GPU de Nvidia, de acuerdo a una lista compilada por Top500.org.

La Tesla P100 se basa en la nueva arquitectura Pascal de Nvidia. Muchas nuevas características podrían ayudar a la GPU a mejorar el desempeño general del servidor.

La GPU tiene 15 mil millones de transistores, y su desempeño de punto flotante llega a los 21,2 teraflops.

El chip fue creado utilizando el proceso FinFET de 16 nanómetros. Los chips se apilan unos sobre otros, lo que permite a Nvidia colocar más características.

La Tesla P100 tiene una memoria HBM2 (High-Bandwidth Memory 2) que ofrece un ancho de banda de 256 GBps (gigabytes por segundo), que es dos veces más rápido que su predecesor, el HBM.

La nueva interfaz NVLink puede transferir datos a 160 Gbps (bits por segundo), que es cinco veces más rápido que el PCI-Express.

Sin embargo, quedan preguntas en cuanto a la forma en que los servidores encajarán con el NVLink. IBM ha señalado que su arquitectura Power soportará NVLink, pero los servidores con chips Intel usan PCI-Express para conectar las GPU con las tarjetas madre.

Sin embargo, en la conferencia, Nvidia mostró una supercomputadora llamada DGX-1 que se ejecuta sobre chips Xeon de Intel con la GPU Tesla P100.