Llegamos a ustedes gracias a:



Noticias

InfiniBand alcanzará una velocidad de 200 gigabits el próximo año

[14/11/2016] Está previsto que InfiniBand llegue a los 200 Gbps (bits por segundo) en productos que fueron anunciados el jueves, con lo cual potencialmente se acelerarán las plataformas de aprendizaje de máquina, así como los sistemas HPC (high performance computing).

El enorme desempeño de cómputo de los nuevos servidores equipados con GPUs requiere de grandes velocidades de red, y estos sistemas están siendo rápidamente desplegados para manejar las tareas de aprendizaje de máquina, afirmó Sameh Boujelbene, analista de Dell'Oro Group.

La llamada HDR InfiniBand, que estará disponible el año próximo en tres conjuntos de productos de Mellanox Technologies, duplicará la velocidad superior de InfiniBand. También tendrá dos veces la velocidad máxima de Ethernet.

Pero el grupo de alto desempeño que probablemente adopte esta nueva interconexión es pequeño, afirmó Boujelbene. Es el 10% superior de los usuarios de InfiniBand, que ya utilizan InfiniBand de 100Gpbs, el que pasará a la nueva tecnología, afirmó.

La propia InfiniBand conforma solo una pequeña parte del networking de centros de datos. Menos del 5% de todos los controladores y adaptadores de servidores que se despachan en la actualidad usan InfiniBand, la mayoría del resto usan Ethernet, afirmó Boujelbene. Intel Omni-Path, una interconexión de 100Gbps que salió de la adquisición de la compañía del antiguo proveedor de InfiniBand, QLogic, tiene una participación aún más pequeña.

Una cosa que distingue a InfiniBand de Ethernet es su baja y previsible latencia. Esto es de gran importancia en la HPC, en donde es común ejecutar simulaciones que tienen que ir a través de muchas iteraciones. Cada demora en el desempeño de una iteración se multiplica cientos de veces, por lo que tiene que ser mínima, afirmó Gilad Shainer, vicepresidente de Marketing de Mellanox.

Los sistemas HPC son los que con mayor probabilidad usan InfiniBand en la actualidad. Más de 200 de los enormes sistemas en la lista Top 500 de supercomputadoras del 2016 usan esa interconexión. Pero también está siendo adoptada en el aprendizaje de máquina, big data, finanzas, detección de fraudes y otras aplicaciones, afirmó Shainer.

La línea de productos HDR InfiniBand tiene todo lo que se necesita para la interconexión de un centro de datos de 200Gbps de extremo a extremo, señala Mellanox. Incluye adaptadores ConnectX-6 de Mellanox, switches Quantum y cables y transceptores LinkX.

Los adaptadores se pueden conectar con cualquier arquitectura de servidor CPU, incluyendo X86, Power y ARM. El switch puede tener 40 puertos de 200 Gbps InfiniBand u 80 puertos de 100 Gbps, con un total de 16 Tbps de capacidad de switching.