Llegamos a ustedes gracias a:



Reportajes y análisis

Una supercomputadora en su escritorio

[26/02/2010] El cómputo de alto rendimiento (HPC, por sus siglas en inglés) ha requerido casi siempre de una supercomputadora -uno de esos monolitos del tamaño de un cuarto que encuentra en laboratorios de investigación del gobierno y de las universidades-. Y si bien esos sistemas no van a irse, algunas de las aplicaciones tradicionalmente manejadas por los más grandes "gigantes de hierro" (o Big Iron) se están dirigiendo al escritorio.

Una razón es que el procesamiento que tomaba una hora en una PC estándar hace ocho años, ahora toma seis segundos, de acuerdo con Ed Martin, gerente en la unidad automotriz del fabricante de software de diseño asistido por computadora, Autodesk Inc. Mejoras monumentales en el poder de procesamiento de escritorio, en el desempeño de la unidad de procesamiento de gráficos (GPU), ancho de banda de la red y velocidad del drive de estado sólido, combinado con el rendimiento de 64-bit, han hecho al escritorio cada vez más viable para proyectos de cómputo de gran escala.
Gracias a estos desarrollos, una transición a "una supercomputadora en su escritorio" está en plena vigencia.
Simulaciones de terremotos, simulaciones de depósitos nucleares e investigaciones de ADN se están quedando en las supercomputadoras tradicionales por ahora. Pero a medida que la tecnología de procesadores avanza a núcleos múltiples en los siguientes diez años, incluso esas actividades, o porciones de ellas, podrían concebiblemente dirigirse hacia el escritorio.
Entretanto, aquí hay algunos ejemplos de aplicaciones de alto rendimiento que ya están corriendo en computadoras más pequeñas.
Construyendo mejores drogas para anestesia
Hoy, los doctores saben cómo administrar drogas que inducen anestesia, y ellos conocen los efectos, pero de hecho no saben que están haciendo las moléculas de las drogas cuando el paciente se queda dormido. Este análisis requiere intenso poder computacional para ver no solo cuando la anestesia entra en el sistema respiratorio, sino también cómo empieza a hacer cambios.
En la Universidad Temple, investigadores han desarrollado modelos que miden los efectos de aplicar anestesia en moléculas dentro de células nerviosas. Los modelos actualmente corren sobre una supercomputadora, pero hay planes en marcha para realizar los cálculos sobre un cluster Nvidia GPU con cuatro nodos. Esto ahorrará dinero y dará a los investigadores más flexibilidad para conducir pruebas cuando estén listos para realizarlas (en lugar de tener que esperar por su tiempo programado para usar una supercomputadora).
En ese escenario, cada GPU tiene el poder computacional de un pequeño cluster HPC. Los cálculos GPU involucran cálculos matemáticos en la escala de aquellos normalmente utilizados para, digamos, renderizar píxeles en un videojuego.
El Dr. Axel Kohlmeyer, un investigador en el proyecto, señala que la mejor forma de entender la simulación es imaginar una caja llena de pelotas de hule, donde cada pelota es de un tamaño ligeramente distinto y se mueve a un ritmo ligeramente diferente, interconectadas por resortes. Algunos resortes son más fuertes o más débiles que otros, y algunas de las pelotas se mueven más rápido o reaccionan de manera distinta. En la simulación, Kohlmeyer puede seguir los movimientos de todas las moléculas para ver los efectos de los anestésicos en el cuerpo humano.
"Se formarán grupos de partículas e irán donde les guste estar, según lo determinado por la magnitud de sus interacciones", indica Kohlmeyer, explicando cómo la simulación evoluciona hasta el punto donde las interacciones se vuelven balanceadas. Las variantes de temperatura producen vibraciones e introducen nueva actividad molecular. "El modelo computacional es de hecho simple, pero el reto es que se necesita tantos millones de interacciones. Nosotros no solo queremos saber las interacciones en un punto, sino cómo cambian con el tiempo". Tener que repetir los cálculos muy a menudo es otra parte del reto, añade.
Para Kohlmeyer, el objetivo es descubrir cuando la condición de no sentir nada ocurre de hecho en el cuerpo humano. Esto podría llevar a la creación de nuevas clases de anestésicos o ayudar a los doctores a determinar por qué problemas -como la pérdida de memoria- pueden ocurrir después de una cirugía.
Investigadores en el Centro de Supercomputadoras de Ohio (OSC) en Columbus, Ohio, han encontrado que no todas las simulaciones requieren una supercomputadora tradicional. Don Stredney, el director y científico de investigación de laboratorio de interfase para aplicaciones biomédicas en OSC, encontró una limitación que es común con las supercomputadoras: los procesos de batch son estáticos y corren en un lapso de tiempo programado. Ellos no pueden proveer interacciones en tiempo real, así que no pueden imitar un procedimiento de cirugía real. Las estaciones de trabajo de escritorio que cuestan de seis mil a 10 mil dólares le permitieron a este equipo correr simulaciones que muestran, en tiempo real, cómo una cirugía cambia la anatomía de un paciente, indica.
Stredney añade que su industria se benefició de las innovaciones en juegos de computadora porque el GPU estándar para el consumidor se volvió mucho más poderoso, lo cual resultó en un mejor realismo a un costo mucho menor. Stredney señala que sus investigadores usan PC comerciales corriendo GPU estándares, tales como aquellos de la unidad ATI de AMD y Nvidia Corp., pero no clusters GPU de alto nivel. Sin embargo, ellos encuentran que cuando los conjuntos de datos crecen demasiado con algunas simulaciones, necesitan regresar a la supercomputadora.
Lo que lleva al grupo de Stredney de vuelta a la supercomputadora, agrega, es "el tamaño exponencialmente creciente de los conjuntos de datos, imágenes en el rango de gigabyte-por-trozo y conjuntos de datos multiescala que ahora son rutinariamente adquiridos a niveles de medio terabyte". Los conjuntos de datos cada vez más grandes y la interacción completa requerida para simulaciones visuales y auditivas en tiempo real "requieren sistemas más sofisticados", finaliza.
Moldeo por inyección en el diseño automotriz
Simulaciones de moldeo por inyección son invaluables para los fabricantes de autos, indica Martin de Autodesk. El moldeo por inyección es un proceso para producir partes de materiales plásticos. Las simulaciones muestran si un molde de inyección -como un parachoques, por ejemplo- causará abolladuras y cómo el molde se ajustará con otras partes del auto. Ellas también revelan cualquier defecto. Los diseñadores consideran muchas variables: la temperatura del molde, su forma geométrica y cómo el proceso de moldeo por inyección trabajará con ciertos materiales.
Un solo prototipo físico de un parachoques puede costar más de un millón de dólares, explica Martin, así que cuanto mejor sea la simulación, menos prototipos habrá que construir y menores serán los costos de producción.
Las simulaciones "solían requerir una instalación de cómputo en cluster significativa, pero estamos obteniendo el mismo nivel de poder con computadoras de escritorio actuales", señala Martin, quien dice que los avances en el escritorio que jugaron los mayores roles en hacer eso posible, fueron el movimiento al procesamiento con múltiples núcleos, el uso de múltiples GPU y el rendimiento de 64-bit. Martin usa computadoras de escritorio estándares que pueden ser adquiridas en Wal-Mart, con los últimos GPU capaces de 3D y CPU de doble núcleo de Intel.
La industria automotriz también está utilizando software de escritorio para modelar diseños de autos. Con tales herramientas, los fabricantes pueden crear renderings complejos que rivalizan -o incluso eclipsan- los gráficos en los mejores videojuegos. De manera interesante, cuando estos modelos son creados en PC de escritorio, generalmente son usados en literatura de márketing y en comerciales de TV. Martin señala que era posible tomar los modelos creados en supercomputadoras y transportarlos a PC, pero las transferencias de archivos de PC a PC son más simples debido a que los formatos de archivos son compatibles entre aplicaciones y las transferencias se llevan a cabo sobre una red estándar, haciendo posible que las imágenes alcancen un número mayor de usuarios.
Aquí hay un ejemplo de modelado en el escritorio: los diseñadores generalmente crean modelos de pintura de autos, examinando los copos metálicos y cómo lucen en ciertos plásticos, o si la pintura luce apagada en ciertas condiciones de iluminación.
Cuanto más precisos sean los modelos, más procesamiento intensivo requieren. En el pasado se requería un ambiente HPC debido al alto número de polímetros usados en la pintura de auto-alrededor de ocho mil-. Martin señala que las computadoras de escritorio moderno pueden manejar ahora esta clase de procesamiento de alta velocidad.
Búsqueda computacional basada en web
Una de las formas más interesantes en que HPC está llegando al escritorio es a través de la web. El mejor ejemplo de esto, hoy en día, está en WolframAlpha, un "motor de conocimiento computacional" en la web que está diseñado para, en las propias palabras del sitio, "recolectar y custodiar todos los datos objetivos... y hacer posible computar lo que sea que pueda ser computado sobre cualquier cosa".
El cambio radical aquí es que, mientras las búsquedas que lanza en WolframAlpha.com aún son conducidas sobre una supercomputadora, los resultados regresan casi instantáneamente, justo en su navegador. Por ejemplo, cuando escribe la simple palabra luna, dispara un complejo cálculo de la órbita de la luna relativa a la Tierra, junto con distancias promedio sobre un período histórico.
Schoeller Porter, un arquitecto en Wolfram Research Inc., señala que los cálculos pueden ocurrir en casi tiempo real debido al disminuido costo de los componentes de HPC. En el pasado, esta clase de cálculos complejos requería establecer una solicitud batch para una supercomputadora, que podría tomar pocos minutos u horas, o incluso un día. Eso no era necesariamente debido a que los cálculos en sí mismos tomaran un largo tiempo, sino debido a que los recursos de procesamiento eran demasiado costosos.
Para hacer la prueba usted mismo, escriba estas solicitudes de cálculos -preguntando sobre las mareas en Honolulu en seis meses- en el motor de búsqueda WolframAlpha:
* International space station jun 24
* skychart Timbuktu yesterday at 8:00pm
* NACA 2014 15 degrees
* tides in honolulu in 6 months
* y'' + sin y = x
* GATTAACCC
Cuando corre búsquedas en WolframAlpha, puede cambiar cualquier variable a voluntad desde su escritorio. Notará que algunas de las consultas toman más tiempo que otras, dependiendo de qué tanto le toma a la supercomputadora determinar el resultado.
Aunque las búsquedas en Google también dependen de una supercomputadora o un cluster en el back end, ellas no involucran los mismos algoritmos computacionales que WolframAlpha.
Google busca información y provee enlaces relevantes; WolframAlpha alimenta al usuario con información literal, no enlaces, y esa información podría ser extraída de una base de conocimientos o generada por cálculos que realiza.
Pronóstico del tiempo
Bill Magro, director de soluciones de software HPC en Intel Corp., señala que la predicción del clima atravesó por una gran evolución en las pasadas dos décadas, cruzando una línea desde solo proveer una idea general de los patrones del clima hasta mostrar detalles pormenorizados, tales como los detalles de células de tormenta individuales. Esto sucedió principalmente debido a que los inmensos conjuntos de datos requeridos para el pronóstico del tiempo ahora pueden asentarse dentro de la memoria del escritorio, y el procesamiento también puede finalmente mantener el paso.
Efectos especiales en el escritorio
Aunque la industria del cine aún depende del tradicional cómputo de alto rendimiento para renderizar los efectos especiales, Hollywood fue uno de los primeros adoptadores de las estaciones de trabajo de 64-bit para ayudar a descargar algo de ese trabajo hacia el escritorio.
Los efectos especiales en películas como 2012 y Avatar usualmente requieren un increíble poder de procesamiento. Hay una obvia diferencia entre una cascada animada que luce generada por computadora (y hecha con software de consumidor) y una que luce realista. Compañías tales como Industrial Light and Magic, Uncharted Territory y Dreamworks se valen de vastos clusters de cómputo y granjas de servidores para el renderizado. Un solo cuadro de video puede tomar horas para renderizar.
Los efectos CGI aún son de cómputo intensivo: en solo una escena en la cual se usan técnicas para hacer que la luz fluya uniformemente sobre un objeto y luego moverlo al unísono con una cámara, hay millones de píxeles en la pantalla al mismo tiempo. Bruno Sargeant, el gerente de cine e industria de la TV en Autodesk, señala que los modelos shader -los cuales actúan como un catalizador para los píxeles, y usan algoritmos matemáticos para hacer que los éstos se muevan de manera realista- también están ayudando.
Pero las estaciones de trabajo de alto nivel están empezando a destacarse. Tanto Adobe Systems Inc., con su motor de rendering Mercury de 64-bit; como Autodesk, con una aplicación llamada Smoke que está saliendo a mediados de noviembre para computadoras Mac Pro, están liderando la carga para hacer que los efectos CGI trabajen bien sobre computadoras de escritorio, sin la necesidad de una masiva granja o cluster de servidores. Sargeant señala que los planetas se han alineado recientemente con velocidades mucho más rápidas de bus, procesamiento en núcleos múltiples, drives de estado sólido y aceleración de GPU.
"Esta área es extremadamente competitiva", indica Bjorn Andersson, un analista de Artair Group, consultora de desarrollo de negocios en Suecia. "El éxito de algunas películas se basa en qué nivel de efectos revolucionarios son los primeros en utilizar. Eso a su vez depende de dos factores: acceso a poder de cómputo en bruto y desarrollo de nuevas funcionalidades de software".
Hoy, porciones de simulaciones del clima para uso meteorológico pueden corren sobre computadoras de escritorio en estaciones de televisión locales, no solo en las agencias del gobierno que monitorean el clima.
Tal modelado es extremadamente complicado debido a que el clima ocurre en espacio 3D abierto y hay millones de variables para temperatura, ubicación, viento y otros factores. Los modelos del clima toman la extensión espacial -digamos, una cuadrícula de cinco kilómetros con un punto de datos para cada 5Km en cada dirección- y luego "la reducen a 1Km y luego hasta 500 metros", explica Magro. "Debido a que está reduciendo en tres dimensiones, el requerimiento computacional se eleva por un factor de ocho. No es que haya más datos, sino que está modelando con más detalles. Realmente se reduce a tener suficiente RAM y suficiente poder de computadora".
El escritorio ya está siendo usado para simulaciones del clima en algunas estaciones locales de TV. En el futuro, a medida que la tecnología de los procesadores avance aún más, todos podríamos correr detallados pronósticos personales del clima en nuestras PC. Magro señala que las computadoras de escritorio podrían ser usadas por individuos para ver modelos para su área inmediata, o para pronosticar el clima para las vacaciones dentro de seis meses, por ejemplo, basados en las condiciones que están experimentando y que han ingresado al modelo.
Más aplicaciones que probablemente seguirán
David Bader, el director ejecutivo de cómputo de alto rendimiento en el Instituto de Tecnología de Georgia, vislumbra varios usos adicionales para HPC sobre el escritorio en los próximos diez años.
Hay posibilidades para descubrir nuevas tendencias entre las redes sociales o identificar sus influenciadores clave. Se podría hacer recomendaciones para mejorar la eficiencia de energía de comportamientos tales como la asignación de rutas al tráfico para evitar la congestión, programas o aplicaciones de computadora para minimizar el uso de energía, y monitorear una red eléctrica inteligente, señala Bader.
Otras posibilidades incluyen la construcción de escenarios 3D, desde colecciones masivas de fotografías públicas y transcripciones en vivo de teleconferencias con las identidades de los interlocutores.
Aunque los expertos concuerdan en que las más grandes supercomputadoras estarán por aquí por algún tiempo más, será interesante ver qué otras aplicaciones tradicionales de HPC eventualmente vendrán a residir en el escritorio.
John Brandon, Computerworld (US)