Llegamos a ustedes gracias a:



Reportajes y análisis

La marcha hacia las computadoras exascales

[18/11/2016] Es bueno estar en la parte superior de la lista.

"Nadie más puede hacer algunas de las cosas que ofrecemos", señala Sverre Brandsberg-Dahl, geofísico jefe de Petroleum Geo-Services (PGS), una compañía global de servicios de campo y exploración sísmica. Su instalación en Houston es la segunda entrada comercial más grande de la lista y # 16 en general.

La lista se llama la Top500, e indica las computadoras de alto rendimiento (HPCs) en términos de velocidad pura. Jack Dongarra, ahora profesor en el Centro de Investigación en Tecnología de la Información de la Universidad de Tennessee, explica que la lista comenzó por accidente, cuando escribió un punto de referencia (llamado Linkpack) en 1979, basado en el tiempo requerido para resolver problemas de matriz.

Un amigo comenzó a reunir los resultados de referencia y la primera lista completa fue publicada en 1993. No es un censo completo de supercomputadoras, ya que la lista contiene solo máquinas cuyos resultados se han presentado para su inclusión.

Esta supercomputadora Stampede, ubicada en el Centro de Computación Avanzada de Texas, será reemplazada a mediados del 2017 con un sistema que duplica su rendimiento. Crédito: Centro de Computación Avanzada de Texas.

"No tengo ni idea de cuántas no aparecen", señala Dongarra. "Obviamente las máquinas de la NSA [Administración de Seguridad Nacional, por sus siglas en inglés] no se cuentan -y me han dicho que la NSA tiene unas cuantas máquinas grandes".

En 1993, la supercomputadora más grande era de 60 gigaflops (mil millones de operaciones de punto flotante por segundo), y ahora es de 93 petaflops (cuatrillones de operaciones de punto flotante por segundo), anota Dongarra. "De giga a tera a peta -cada paso es de tres veces la magnitud, así que hemos subido seis órdenes de magnitud", explica. "Así que las máquinas son un millón de veces más rápidas que en 1993, por el mismo precio".

Cuente las formas

Dongarra dice que las máquinas Top500 se dividen en tres estilos de arquitectura: Alrededor del 70% del total son las que usan solo procesadores de productos básicos (por ejemplo, CPUs x86 de producción masiva); Aquellas (alrededor del 20%) que utilizan procesadores de productos básicos con aceleradores como las GPU Nvidia; y aquellas (alrededor del 7%) que usan procesadores de conjuntos de instrucciones "ligeros" o reducidos que carecen de tales mejoras, como las funciones de pre-recuperación y cachés grandes de memoria.

Los procesadores de productos básicos son dispositivos x86 de Intel o AMD. Incluso los proveedores como Cray que anteriormente tenían CPUs de propósito especial ahora utilizan procesadores de productos básicos, ya que ahora tienen un ancho de 64 bits, pueden hacer cálculos rápidos de punto flotante y son producidos en masa de manera relativamente barata, indica Dongarra.

"No hay una regla de oro que diga lo que cada arquitectura hace mejor, y vemos a las tres entre los diez primeros", indica Dongarra, agregando que cada una de las diez primeras probablemente cuesta más de 100 millones de dólares.

Más allá de eso, cada nodo (es decir, los núcleos de una CPU) normalmente tiene un espacio de direcciones compartido y se comunican con los otros nodos y utilizan sus espacios de direcciones a través del protocolo MPI (Message Passing Interface). Los nodos suelen ejecutar Linux o Unix, a veces en una versión ligera especial. Las máquinas suelen operar en modo por lotes y se mantienen funcionando todo el tiempo, añade.

Jack Dongarra, Informe sobre el sistema TaihuLight Sunway, junio del 2016.
computadoras exascales

La mayor extrae 15 megavatios de potencia, sin contar la refrigeración, que podría agregar otro 20%. El costo de un megavatio, señala, es de aproximadamente un millón de dólares anuales.

Las fuentes coinciden en que las HPCs se asemejan exteriormente a las granjas de servidores convencionales, con componentes en bastidores, pero la densidad de los componentes es varias veces mayor y las interconexiones son más sofisticadas.

Usos del mundo real

De las últimas 500 (junio del 2016), 95 tienen un rendimiento de un petaflop o mejor, y aproximadamente la mitad de las 500 se utilizan en la industria, señala Dongarra.

"Así que la industria lo consigue, puede producir una ventaja", señala Dongarra.

Brandsberg-Dahl en PGS está de acuerdo. Su HPC (llamada Abel) es una Cray que entrega cuatro petaflops usando 145.920 núcleos Intel Xeon 2.3Ghz.

"Nos separamos del engorroso régimen paralelo de los clústers de PC y ya no estamos limitados a lo que se puede hacer con 256 gigabytes de RAM, ya que eso era típicamente lo que la gente ponía en un solo nodo", explica Brandsberg-Dahl. "Ahora podemos usar la memoria de cualquier nodo y extender el problema en toda la máquina -600 terabytes. Las encuestas sísmicas de hoy pueden alcanzar ese tamaño.

"La plataforma nos permite implementar nuevas cosas más rápido, y pasar del concepto a ejecutar a escala mucho más rápido, con menos ingeniería informática", añade.

La otra mitad de la lista más reciente está formada en gran parte por instituciones académicas y de investigación, como la instalación del Centro de Informática Científica Nacional de Investigación de Energía en el Laboratorio Nacional Lawrence Berkeley, cerca de Berkeley, Calif. Llamada Edison, es la #49 en la lista, suministrando 1,6 petabytes Utilizando 133.824 procesadores Xeon de 2.4Ghz.

John Shalf, director de informática, anota que la máquina sirve a cerca de 600 usuarios con cerca de siete mil proyectos diferentes. Dice que ve tres tipos de usuarios. Primero están los físicos que escriben su propio software, a menudo en Fortran o C++ con MPI. En segundo lugar, los programas complejos escritos por grandes comités, como la comunidad de modelos climáticos. En tercer lugar, están los que utilizan software clave de terceros, como paquetes de química o Gauss.

La supercomputadora Summit del Laboratorio Nacional de Oak Ridge tendrá chips de IBM Power9 y entregará 200 petaflops de rendimiento cuando se despliegue a principios del 2018.
computadoras exascales

El uso de MPI es particularmente importante ya que permite que las aplicaciones traten la máquina como un enorme espacio de memoria, señala Shalf. "Cualquier procesador puede leer y escribir en cualquier parte de la máquina, es útil para la minería de datos y aplicaciones irregulares", añade. Dado que la máquina no se utiliza para trabajos clasificados, los usuarios pueden tener acceso remoto, añade el ejecutivo, y tratarla como una computadora en la nube. El laboratorio está construyendo una segunda máquina, llamada Cory, que debería ofrecer decenas de petaflops y alcanzar el punto #2 o #3 en la lista, agrega Shalf.

Generalmente, el mercado está demandando más y más energía de las HPCs, señala Bill Mannel, vicepresidente de HPC en Hewlett Packard Enterprise. Existe una tendencia hacia diferentes tipos de supercomputadoras para diferentes usos, con big data como un gran conductor.

Los clientes "solían decir que querían cien teraflops, pero ahora es común escuchar medio petaflop, y los centros de datos más grandes tienen 10 a 15 petaflops", indica Mannel.

Sumit Gupta, vicepresidente de HPC y análisis de datos en IBM, anota que las supercomputadoras son a menudo la ventaja invisible de muchas corporaciones. "Antes de que pusieran maniquíes de choque en coches reales, han ejecutado miles de simulaciones de choque en un modelo de computadora", agrega Gupta. "Los fabricantes de teléfonos celulares ejecutan simulaciones para encontrar el mejor lugar para poner una antena, y simular las áreas térmicas del teléfono para que no se caliente demasiado".

Gupta estima que una simulación de accidente de coche podría requerir un centenar de servidores, definiendo un servidor como dos CPUs con diez núcleos cada uno, además de aceleradores de GPU. Los estudios de interacción con fármacos o simulaciones atómicas podrían tomar miles, a veces decenas de miles de servidores, añade. Los servidores confían en Linux no porque sea gratis, sino porque ofrece un buen rendimiento, señala.

En cuanto a la complejidad del software, Mannel anota que son comunes cuatro pilas de software diferentes: una para desarrolladores, con compiladores, depuradores y bibliotecas de código paralelo; la pila de usuarios, a menudo en forma de portal; un nivelador de carga con planificadores y equilibradores; y la vista de administrador para la administración de clústeres y el aprovisionamiento de servicios.

En cuanto al precio, "Para el máximo rendimiento de un petaflop, la regla general es que costará cinco millones de dólares", indica Mannel.

Para aquellos que quieren algo más cercano a un sistema llave en mano, Barry Bolding, vicepresidente senior de Cray, apunta a la Cray Urika GX, que puede tener 1.700 núcleos en un rack, sacar de 30 a 40 kilovatios y costar al menos 200 mil dólares. Tal unidad podría tener más de 20 terabytes de DRAM, 125 terabytes de memoria SSD y 190 terabytes de espacio en disco, añade. Viene con su propio software de gráficos, Hadoop y otros paquetes.

La importancia de las HPC fue reconocida por la Casa Blanca el año pasado, con el lanzamiento de la Iniciativa Nacional de Computación Estratégica. Descrita como un esfuerzo de colaboración entre el gobierno, la industria y el mundo académico, sus objetivos anunciados son promover la creación de sistemas exaflop que puedan manejar datos exabyte; mantener a los EE.UU. a la vanguardia del campo de las HPC; promover el desarrollo del hardware necesario; mejorar la productividad del programador HPC; y promover el acceso a las HPC.

Síndrome de China

Pero todo palidece en comparación con las noticias de China.

"En el 2001 tenían cero en la lista", señala Dongarra. "Ahora tienen 167, mientras que Estados Unidos tiene 165, y el tercero es Japón con 29. Es el punto más bajo para Estados Unidos desde 1993, cuando empezó la lista. China ha hecho un esfuerzo concentrado para invertir en HPC. Han visto que HPC proporciona algún tipo de ventaja estratégica. Diría que todas las [chinas] de la lista son máquinas de producción, no máquinas de acrobacias".

"China se mueve más agresivamente que cualquier otra entidad", señala el analista de la industria Chirag Dekate en Gartner. "Creen que, para dominar las economías de mañana, necesitan controlar las cadenas de suministro de las tecnologías emergentes".

El 12 de febrero del 2015, el Departamento de Comercio de los Estados Unidos embargó las exportaciones a cuatro organizaciones chinas: la Universidad Nacional de Tecnología en Defensa (que construye computadoras) y los Centros Nacionales de Supercomputación en Changsha, Hunan (#125 en la lista), Cuanzhou (#2) y Tianjin (#32), debido a su participación en actividades "contrarias a los intereses de seguridad nacional o de política exterior de los Estados Unidos". Específicamente, se cree que las supercomputadoras son utilizadas en actividades explosivas nucleares.

"El embargo se dio en lugares que ya tenían o estaban a punto de actualizar las máquinas con partes de Intel", explica Dongarra.

En cuanto a la probable efectividad del bloqueo, el #1 en la lista del Top500 resulta ser el Sunway TaihuLight de China en el Centro Nacional de Supercomputación en Wuxi. Sostiene un rendimiento de 93 petaflops con 10.649.600 núcleos, todos dispositivos Sunway SW26010 de 1.45GHz (también llamados ShenWay), que se ajustan a la descripción de Dongarra de los procesadores "ligeros". Y todos hechos en China.

"Están tratando de satisfacer las demandas internas de los clientes sin ser mantenidos como rehenes de cualquier otro país o paradigma tecnológico", anota Dekate. "Ellos ya habían demostrado la capacidad de hacer sus propios componentes de procesador y conjuntos de chips, aunque están luchando en el espacio de la memoria".

En respuesta, los EE.UU. planea tener una supercomputadora a principios del 2018 con aproximadamente el doble del rendimiento del sistema más nuevo y más poderoso de China. El Laboratorio Nacional Oak Ridge del Departamento de Energía de EE.UU. está esperando un sistema IBM llamado Summit, con capacidad de 200 petaflops a principios del 2018.

Ojos en el premio

En cuanto a la llegada de una máquina exaflop, la pregunta parece ser más dónde y no cuando.

"La lista de Top500 muestra que tuvimos la primera máquina teraflop en 1997, y en el 2007 logramos la primera máquina petaflop, o tres órdenes de magnitud en una década", anota Dongarra. "Si se extrapolan los datos que muestran, tendremos una máquina exaflop en el 2020, pero esa predicción es peligrosa ya que la escala es logarítmica. Mucho tiene que suceder para alcanzar ese logro en el 2020".

"Podríamos llegar a exascale mañana, pero no querría pagar la factura de electricidad", indica Mannel de HP. "Sería caro en términos de espacio y energía y los costos de hardware; y debido a los índices de falla de componentes solo se ejecutarán por unas horas a la vez. Para la computación exaflop, con la potencia y el espacio y la fiabilidad que hoy disfrutamos con la computación petaflop, debemos esperar al primer tercio de los 2020", indica Mannel.

En cuanto a dónde ocurrirá, "China probablemente llegará primero, ya que están muy motivados en continuar su liderazgo", señala Dekate de Gartner. "Ellos tienen una estrategia mucho más amplia de la que les damos crédito, están buscando liderar la carrera de exascale, y su umbral para el dolor [cuando se paga por HPCs] es mucho más alto. Los EE.UU. y los propietarios europeos son mucho más pragmáticos y quieren diseñar el hardware para asegurar que las aplicaciones se amplíen y proporcionen la mejor eficiencia de energía y el más amplio rango de soporte de aplicaciones posibles".

Pero más allá de ser más poderosos, las fuentes también creen que los usuarios encontrarán maneras más sofisticadas de usar HPCs.

"En Cray creemos que en cinco a siete años las supercomputadoras no serán solo para resolver problemas físicos", indica Bolding. "Vemos una combinación de analítica, simulación y modelado, con una convergencia de big data. La gente querrá un rápido conocimiento de sus datos para predecir los riesgos que enfrentan, y decidir la mejor manera de utilizar los recursos".

Eso es lo que están haciendo en la Universidad de Michigan, cuya supercomputadora IBM (llamada Conflux) es demasiado nueva para estar en la lista. (a 1.200 núcleos, probablemente nunca llegará a la lista, ya que la más pequeña tiene más de cinco mil).

"Hay problemas que incluso la máquina más rápida en el mundo en los próximos 50 años no será capaz de resolver", señala el profesor de ingeniería aeroespacial Karthik Duraisamy. "Para un problema como la combustión del motor, obtener la respuesta correcta implica simular cada átomo, y eso no es posible. La mejor cosa siguiente es usar alguna aproximación, y su modelo se vuelve inexacto. Por lo tanto, usamos el aprendizaje automático para mejorar la aproximación".

Una gran máquina también tiene dos flujos de trabajo -el modelado y el aprendizaje automático- yendo al mismo tiempo e interactuando, mientras que los usuarios hacen ajustes hasta que se obtienen los resultados deseados, explica.

El profesor de ingeniería biomédica, Alberto Figueroa, dice que espera realizar una planificación quirúrgica óptima en 24 horas, en lugar de semanas. El profesor de Ingeniería Mecánica, Krishna Garikipati, dice que espera combinar varios modelos físicos de varios dominios (cuánticos a través de Newtoniano) para finalmente poder decir exactamente cuándo una pieza de acero se romperá exactamente y bajo qué carga.

Por último, tenga en cuenta que la máquina más potente de la lista original hace 23 años entregó 60 gigaflops. Hoy en día, una computadora de escritorio de cuatro núcleos con 3Ghz ofrece 48 gigaflops, suponiendo un promedio de cuatro flops por ciclo de reloj. Eso la habría puesto en el número 2 de la lista de 1993. ¿Significa esto que podemos esperar desktops petaflop en dos décadas?

"Por supuesto", finaliza Dongarra.

Lamont Wood, Computerworld (EE.UU.)