Llegamos a ustedes gracias a:



Noticias

IBM planea más hardware y software de IA

A medida que Watson madura

[16/11/2016] Cinco años atrás, la supercomputadora Watson de IBM había aplastado a sus rivales en el concurso de televisión Jeopardy. Era difícil prever entonces, pero la inteligencia artificial ahora se impregna en nuestra vida cotidiana.

Desde entonces, IBM ha expandido la marca Watson a un paquete de computación cognitiva con hardware y software que se utiliza para diagnosticar enfermedades, explorar en busca de petróleo y gas, ejecutar modelos de computación científicos y permitir que los automóviles se conduzcan de manera autónoma. La compañía ha anunciado ahora nuevos paquetes de software y hardware de IA.

Las nuevas herramientas de hardware y software de IBM llamadas PowerAI, se utilizan para entrenar el software para realizar tareas de IA como reconocimiento de imágenes y voz. Mientras más aprende la computadora, más exactos los resultados. El entrenamiento requiere de una gran cantidad de potencia de cómputo. Ya está disponible el nuevo hardware de entrenamiento.

En última instancia, el hardware y el software podrían ser la clave para que las tecnologías de Watson se encuentren fácilmente disponibles para las empresas a través de la nube u on premises. Por ahora, la empresa no está hablando sobre si van a ser parte de Watson.

El primer conjunto de hardware es el servidor Power8 con GPUs Tesla de Nvidia, afirmó Sumit Gupta, vicepresidente de computación de alto desempeño y analítica de IBM.

El hardware es el sistema de aprendizaje profundo más rápido que se tiene disponible, afirmó Gupta. Las CPU Power8 y las GPU P100 de Tesla se encuentran entre los chips más rápidos disponibles, y ambos se encuentran vinculados a través de la interconexión NVLink, que supera a PCI-Express 3.0. Las GPU de NVIDIA son la base de muchos sistemas de aprendizaje profundo en empresas como Google, Facebook y Baidu.

"El desempeño es muy importante ya que las tareas de entrenamiento en aprendizaje profundo se ejecutan durante días, afirmó Gupta. También es importante acelerar las tecnologías clave como el almacenamiento y las redes, afirmó.

El hardware de Power8 se encuentra disponible a través de la nube de Nimbix, que proporciona acceso bare metal al hardware y un backend de Infiniband.

IBM también está planeando hardware y software para realizar inferencias, lo cual requiere un procesamiento más ligero en el borde o dispositivo final. El motor de inferencias toma los resultados de un modelo de entrenamiento, agrega datos o entradas adicionales y proporciona resultados improvisados. Los drones, robots y vehículos autónomas utilizan motores de inferencia para su navegación, reconocimiento de imágenes o análisis de datos.

Los chips de inferencias también se utilizan en centros de datos para mejorar los modelos de aprendizaje profundo. Google ha creado su propio chip llamado TPU (Tensor Processing Unit), y otras empresas como KnuEdge, Wave Computing y GraphCore están creando chips de inferencia.

IBM está trabajando en un modelo diferente para su hardware y software de inferencia, afirmó Gupta. No proporcionó mayores detalles.

El software es el pegamento que une el software y hardware de AI de IBM en un paquete coherente. IBM ha ramificado una versión del marco de trabajo de aprendizaje profundo de código abierto Caffe para que funcione en su hardware Power. IBM también soporta otros marcos de trabajo como TensorFlow, Theano y OpenBLAS.

Los marcos de trabajo son cajas de arena en las que los usuarios pueden crear y ajustar los parámetros de un modelo de computadora que aprende a resolver un problema particular. Caffe se utiliza ampliamente en el reconocimiento de imágenes.