Llegamos a ustedes gracias a:



Noticias

Microsoft y Nvidia trabajan para acelerar la plataforma de IA

Que es la base de Cortana

[22/11/2016] Gracias a la inteligencia artificial, tenemos automóviles autónomos, chat bots y reconocimiento de voz. El CNTK (Cognitive Toolkit) de Microsoft es una de las muchas plataformas que entrenan a computadoras para aprender, y ahora tiene un upgrade.

CNTK es la base de los servicios de Microsoft Cortana y la traducción de idiomas de Skype y se jacta de más de 90% de precisión en tareas de reconocimiento de voz. Microsoft pronto lanzará un toolkit de CNTK que ha pasado por un upgrade, y un fabricante de hardware quiere asegurarse que el kit funcione de lo mejor en su hardware.

NVIDIA se ha asociado con Microsoft para optimizar sus herramientas de desarrollo de GPU para CNTK. Las empresas han creado un conjunto de algoritmos y bibliotecas de aprendizaje profundo que acelerarán el CNTK para realizar tareas de IA como el reconocimiento de imágenes y de voz en las GPU.

Las herramientas de aprendizaje profundo como CNTK son sandboxes en las que los desarrolladores pueden crear un modelo para que las computadoras puedan resolver un problema particular. El objetivo final es crear un modelo bien entrenado que pueda realizar con precisión una tarea específica, como revisar cargas de datos médicos para diagnosticar una enfermedad.

En base a los inputs, los investigadores están modificando modelos continuamente y ajustando sus parámetros. Uno de esos cambios optimiza las conexiones de redes neuronales para lograr mejores capacidades de IA y para ampliar el modelo de entrenamiento sobre más GPU y servidores.

El entrenamiento de modelos de computadora puede ejecutarse durante días y requiere de un poder de cómputo intenso. Las GPU son la base del aprendizaje profundo para empresas como Google y Facebook, y Microsoft está permitiendo que algunos clientes evalúen las GPU como parte de su servicio de nube Azure. Las herramientas actualizadas del CNTK funcionarán más rápido en los productos de nube Azure N Series de Microsoft, los cuales funcionan en GPUs basadas en las antiguas arquitecturas Kepler y Maxwell de Nvidia.

Las herramientas actualizadas del CNTK pueden comprarse on premises con la supercomputadora DGX de Nvidia, que cuesta 129 mil dólares y tiene ocho GPU Tesla P100 basadas en la más reciente arquitectura Pascal.

NVIDIA ha estado trabajando estrechamente para optimizar sus bibliotecas de aprendizaje profundo de GPU para la próxima versión del CNTK, afirmó Ian Buck, vicepresidente de computación acelerada de Nvidia.

Las GPU de Nvidia ya trabajan en CNTK con las bibliotecas existentes, pero el nuevo marco de trabajo proporcionará un gran upgrade en el desempeño. Hay una mejora de 7,4 veces en los tiempos de entrenamiento del aprendizaje profundo en las ocho GPU de un sistema, afirmó Buck.

Buck se negó a comentar cuando se lanzarían las nuevas herramientas.

NVIDIA ha hecho mejoras en las herramientas como CUDNN, que proporciona las librerías y algoritmos para el aprendizaje profundo basado en GPUs. CUDNN es una importante tecnología subyacente de CUDA, que es marco de trabajo de programación paralela de Nvidia.

Hay otros marcos de trabajo de aprendizaje profundo como Tensor de Google, Theano y Caffe de código abierto, que sobresalen en el reconocimiento de imágenes. Empresas como Intel e IBM han modificado esos marcos de trabajo para que funcionen mejor con su hardware. Las GPU de NVIDIA ya soportan la mayoría de los marcos de trabajo de aprendizaje profundo, pero CNTK ahora tiene una ventaja.

Google ha salido con su propio chip de inferencias llamado Tensor Processing Unit que está diseñado para mejorar los resultados del aprendizaje profundo. Google puede darse el lujo de construir su propio hardware porque despliega el aprendizaje profundo a una escala más grande, pero para las empresas más pequeñas podría ser costoso desplegar sistemas de aprendizaje profundo; en su lugar pueden recurrir a servicios de nube como Azure.