Llegamos a ustedes gracias a:



Noticias

NVIDIA presenta los aceleradores Tesla P4 y P40

[22/09/2016] NVIDIA develó las últimas incorporaciones a su plataforma de aprendizaje avanzado basada en la arquitectura Pascal: los nuevos aceleradores de GPU NVIDIA Tesla P4 y P40, y el nuevo software que logra avances increíbles en cuanto la eficacia y la velocidad para acelerar cargas de trabajo de productos de inferencia para servicios de inteligencia artificial.

"La complejidad de los servicios de inteligencia artificial modernos, como la asistencia activada por voz, los filtros antispam y los motores de recomendaciones de productos y películas, crecen rápidamente, requiriendo una potencia de computación 10 veces superior, en comparación con las redes neurales de hace un año. La tecnología actual basada en CPU no es capaz de entregar la capacidad de respuesta en tiempo real que requieren los servicios de inteligencia artificial modernos, lo que genera que la experiencia del usuario sea deficiente, señaló Ian Buck, gerente general de computación acelerada de NVIDIA.

Nvidia Tesla P40

Los modelos Tesla P4 y P40, añadió el ejecutivo, se diseñaron específicamente para la inferencia, ya que usan redes neurales profundas y capacitadas para reconocer voz, imagen o texto, en respuesta a las demandas de los usuarios y los dispositivos. "Basadas en la arquitectura Pascal, estas GPUs cuentan con instrucciones especializadas de inferencia basadas en operaciones de 8 bits (INT8), entregando una respuesta hasta 45 veces más rápida en comparación con las CPU y una mejora de cuatro veces con respecto a las soluciones de GPU presentadas hace menos de un año, aseguró Buck.

Añadió que Tesla P4 puede instalarse en cualquier servidor gracias a su factor de forma pequeño y su diseño de bajo consumo, que comienza con 50W. "Un solo servidor con una Tesla P4 reemplaza a 13 servidores solo de CPU para cargas de trabajo de inferencia de video, lo que genera ahorros hasta 8 veces en el costo total de la propiedad, lo que incluyendo los costos de energía y servidores, afirmó Buck.

Agregó que, con 47 teraoperaciones por segundo (TOPS) de rendimiento de inferencia con instrucciones INT8, un servidor con ocho aceleradores Tesla P40 pueden reemplazar el rendimiento de más de 140 servidores de CPU. "Con un costo aproximado de cinco mil dólares por servidor de CPU, esto logra ahorros de más de 650 mil dólares en el costo de la adquisición del servidor, indicó el ejecutivo.

Para complementar la Tesla P4 y P40, NVIDIA presentó dos softwares para acelerar la inferencia de inteligencia artificial: NVIDIA TensorRT y el SDK NVIDIA DeepStream.

"TensorRT es la biblioteca creada para optimizar modelos de aprendizaje profundo para la implementación de producción que ofrece una capacidad de respuesta instantánea para las redes más complejas. Maximiza la tasa de transferencia y la eficacia de aplicaciones de aprendizaje profundo al aprovechar las redes neurales capacitadas, definidas con operaciones de 32 o 16 bits, y las optimiza para las operaciones INT8 con precisión reducida, indicó Buck.

En cuanto a la SDK NVIDIA DeepStream, el ejecutivo señaló que, aprovecha la potencia de un servidor Pascal para decodificar y analizar de forma simultánea hasta 93 transmisiones de video en alta definición, en tiempo real, en comparación con las siete transmisiones con CPU dobles. "Esto aborda uno de los principales desafíos de la inteligencia artificial: comprender el contenido de video, según su escalabilidad, para aplicaciones como los automóviles de conducción autónoma, los robots interactivos, la aplicación de filtros y la presentación de anuncios. La integración del aprendizaje profundo con las aplicaciones de video les permite a las empresas ofrecer servicios de video innovadores e inteligentes que, hasta entonces, eran imposibles de proporcionar, indicó Buck.

Las NVIDIA Tesla P4 y P40 estarán disponibles en noviembre y octubre, respectivamente, en servidores que reúnan los requisitos de ODM, OEM y socios de canal.

CIO, Perú