Llegamos a ustedes gracias a:



Reportajes y análisis

Tecnosys: La computación de alto desempeño

[24/05/2017] La high performance computing (HPC) o computación de alto desempeño es un concepto que cada vez se está popularizando más. Aunque ciertamente no su uso. Dada la infraestructura que se requiere para este tipo de procesamiento, no son muchas las instituciones que se pueden dar el lujo de poseer una supercomputadora, una máquina capaz de realizar la HPC.

Es por ello que cuando Tecnosys realizó un evento para aclarar las dudas sobre la HPC, pudimos conocer de lo que realmente se trata esta forma de trabajo y de lo que ella nos puede ofrecer. En el evento "HPC, herramienta que el Perú necesita, la firma mostró como la arquitectura de computadores HPC puede convertirse en el impulso que investigadores y empresarios peruanos, así como entidades públicas, necesitan en sus proyectos.

Rossana Patrnogic de Tecnosys
Qué es HPC

Lo primero era dar definiciones y Rossana Patrnogic de Tecnosys ofreció precisamente algunas definiciones de lo que es HPC.

De acuerdo a la ejecutiva, HPC se refiere a la práctica de agregar potencia computacional de una manera tal que se obtiene mucho mayor rendimiento que con una típica computadora de escritorio o estación de trabajo para resolver grandes problemas en la ciencia, ingeniería y negocios.

Para hacer HPC se requiere de una supercomputadora, y éste es un dispositivo que ofrece capacidades de cálculo o procesamiento intensivo sustentado en una configuración de hardware especializado en operaciones paralelas. El uso y acceso a la memoria tiende a ser cuidadosamente diseñada para que la CPU esté constantemente trabajando en forma eficiente.

¿En qué se diferencia de una PC convencional? En las PC o servidores convencionales se atienden por lo general operaciones de entrada y salida, como las consulta a bases de datos, servidores de archivos, acceso a correo electrónico, streaming de video, entre otras.

En cambio, las supercomputadoras tienden a ser especializadas para ciertos tipos de operaciones, usualmente cálculos numéricos y, por lo tanto, hacen uso intensivo del procesador. Además, los sistemas operativos de este tipo de computadoras tienden a estar más enfocados en el uso más apropiado de los recursos de hardware y en las tareas administrativas, que en proporcionar una interfaz gráfica de alta calidad.

En los años cuarenta, cuando a estas computadoras se les denominaban large scale computing machines, las aplicaciones de la HPC se enfocaban en las tablas balísticas, el procesamiento de señales, la criptografía y la simulación climática de Von Neumann.

En la actualidad, la HPC se dedica a áreas como la dinámica de fluidos y transferencia de calor, física y astrofísica, nanociencia, química y bioquímica, geofísica e imágenes de la Tierra, y muchas otras aplicaciones.

La expositora también sostuvo que, en el inicio, cuando se hablaba de una supercomputadora se hablaba de una sola máquina, pero desde los años 90 ha aparecido una tendencia que implica el uso de múltiples computadoras para realizar el trabajo de una supercomputadora; es decir, se puede hacer HPC con clusters.

La comunicación de los servidores, llamados nodos, que conforman un cluster se realiza a través de redes de alta velocidad -de hasta 56 Gb- y cada nodo posee varios procesadores, los cuales a su vez cuentan con varios núcleos que soportan configuraciones con grandes cantidades de memoria.

Esta nueva forman de hacer HPC, sin embargo, debe de tomar en cuenta algunas cosas, siendo la más importante que las máquinas que conforman un cluster deben tener ciertas características. Éstas deben tener componentes diseñados para trabajar al 100%, deben poseer sistemas de disipación del calor o enfriamiento, la fuente de poder debe tener la capacidad de alimentar al equipo en su totalidad, el diseño del chasis debe ser tal que densifique la capacidad de procesamiento, y debe tener la capacidad de albergar GPUs.

Pero, además, al considerar un proyecto de HPC, se deben de tomar consideraciones adicionales a las del propio equipo. Uno debe preguntarse si la estructura actual va a soportar la nueva carga eléctrica, si se cuenta con la debida climatización para los equipos y si se cuenta con los debidos equipos de respaldo de energía.

Al final la expositora sostuvo que debe haber una buena comunicación entre los usuarios del equipo de HPC y el área de TI que se va a encargar de implementarlo, puesto que los usuarios pueden tener en mente un equipo muy grande y poderoso, mientras que TI puede estar pensando en adquirir un equipo más rápido y económico.

Mónica Costa, commercial account manager de SGI.
Mónica Costa, SGI, Tecnosys, HPC
La oferta

Si uno considera que ya necesita es una supercomputadora, ¿dónde conseguir una? Otra de las expositoras fue Mónica Costa, commercial account manager de SGI, una firma que precisamente se encarga de ofrecer supercomputadoras y ciertamente hay alternativas para elegir.

SGI es una firma que tiene experiencia en diversas industrias como la industria aeroespacial, petróleo & gas, automotriz, finanzas, entre otras. Y lo que Costa presentó fue tres tipos de supercomputadoras.

El primer tipo son las Scale Up SGI UV, dirigidas a trabajos que sean demasiado grandes para las estaciones de trabajo o incluso para los clusters. Un segundo tipo son las Scale Out SGI ICE, dirigidas a los grandes modelos de memoria distribuida con lo mejor de su clase en velocidad, escala y eficiencia. Y el tercer tipo son las Scale Out SGI Rackable, dirigidas a entornos que requieran una completa integración con fábricas, componentes de estándar industrial, y plena integración con la SGI Performance and Management Suite.

Estas máquinas se usan en distintos trabajos. Por ejemplo, en la industria automotriz se tenía un cliente que tenía ciertos requerimientos: Conjuntos de datos cada vez más grandes debido a las nuevas regulaciones para las pruebas de choques de automóviles, múltiples aplicaciones con diferentes necesidades de cómputo e I/O, y complejidad en la gestión de un cluster.

La solución fue una SGI UV con 256 núcleos y 4TB de memoria, además de una SGI InfiniteStorage 5500 con 24 discos de 900GB.

De hecho, son las SGI ICE las que usa la NASA para su análisis del cambio climático. Esta agencia tiene el SGI ICE X, llamada Pleiades, con 186.288 núcleos y 4.089 PFLOS en cinco generaciones de CPUs.

En la región

Ciertamente, era de esperar que grandes instituciones como la NASA tuvieran acceso a las supercomputadoras, pero ¿cómo se encuentra la región? Para responder a esta pregunta se llamó mediante videoconferencia a Andrés Ávila, integrante del National Laboratory for High Performance Computing (NLHPC) de Chile para relatar su experiencia.

El NLHPC de Chile trabaja cercanamente con los investigadores de diversas instituciones. Ávila mostró un cuadro en el que se podían ver investigadores provenientes de áreas que uno podría esperar como parte de la HPC, como la química, la física o la mecánica, pero también se podía ver investigadores incluso de áreas como la odontología.

Su equipo se encuentra conformado por 12 profesores que son profesionales en modelación, informática y formulación de proyectos. Su equipamiento fue creciendo con el tiempo y eso fue algo en lo que hizo hincapié el investigador: Se puede comenzar con poco e ir creciendo de paso en paso, en cluster.

Lo importante, afirmó, es saber en qué se va a utilizar la máquina y luego conseguir lo necesario para que funcione. No es importante obtener desde un principio una enorme máquina para hacer HPC.