Llegamos a ustedes gracias a:



Noticias

TensorRT acelera las predicciones del aprendizaje de máquina

[30/06/2017] Nvidia ha lanzado una nueva versión de TensorRT, un sistema de runtime para entregar inferencias utilizando modelos de aprendizaje profundo a través de las propias GPU de Nvidia.

Inferencias o predicciones creadas desde un modelo entrenado, pueden entregarse desde las CPU o GPU. Entregar inferencias desde las GPU es parte de la estrategia de Nvidia para conseguir una mayor adopción de sus procesadores, contradiciendo lo que AMD está haciendo para romper el dominio de Nvidia en el mercado de GPUs de aprendizaje de máquina.

Nvidia afirma que TensorRT basado en GPU es mejor en todos los ámbitos para realizar inferencia que los enfoques sólo con CPU. Una de las evaluaciones comparativas preferidas de Nvidia, la prueba de clasificación de imagen AlexNet en el marco de trabajo Caffe, afirma que TensorRT es 42 veces más rápido que una versión de la misma prueba sólo con CPU -16.041 imágenes por segundo frente a 374- cuando se ejecuta en el procesador Nvidia Tesla P40. (Siempre hay que tomar con pinzas las evaluaciones comparativas de la industria).

Entregar predicciones desde una GPU también es más eficiente en cuanto a energía y ofrece resultados con menor latencia, afirma Nvidia

TensorRT sólo funciona con la propia línea de GPUs de Nvidia y es un producto propietario de código cerrado. AMD, por el contrario, ha estado prometiendo un enfoque más abierto de cómo se pueden utilizar sus GPU para aplicaciones de aprendizaje de máquina, a través de la biblioteca ROCm -que es independiente con respecto al hardware y de código abierto- para acelerar el aprendizaje de máquina.