Llegamos a ustedes gracias a:



Reportajes y análisis

Plan de reforma del gasto de TI: Sistemas más eficientes

[28/05/2010] Una de las industrias más afectadas en la recesión fue la de servicios financieros, el mayor consumidor de servidores corporativos, representando casi el 25% del mercado. Y mientras Wall Street está empezando a recuperarse, las compañías de servicios financieros indudablemente van a ser mucho más frugales con sus inversiones de capital.

Reconociendo esto, los diseñadores de servidor están buscando formas de reducir costos sin dejar de ser capaces de satisfacer las agresivas demandas de las aplicaciones robustas de servicios financieros. Consecuentemente, componentes tales como switches PCI Express (PCIe) y otros dispositivos altamente integrados se han vuelto más atractivos debido a que permiten a los diseñadores limitar los chips y el poder requerido para construir sistemas.
Los factores de forma ayudan a determinar los costos de los servidores. El servidor tradicional montado en un rack es simplemente una pila de cajas independientes conectadas a un switch que podría, por ejemplo, estar ubicado en lo alto del rack. El switch es el policía de tránsito, enrutando el tráfico entre servidores, sistemas de almacenamiento y la red. Usualmente hay dos switches en un rack para desplegarse en los módulos estándar 1U y 4U. Los racks más comunes son 42U y pueden soportar un máximo de 40 servidores.
En los últimos tiempos, los servidores blade han estado creciendo en popularidad debido a su factor de forma compacta, bajo consumo de energía y eficientes mecanismos de enfriamiento. Los servidores blade remueven mucho del calentamiento del sistema suprimiendo muchos de los componentes redundantes utilizados en los servidores montados en rack.
En sistemas blade, por ejemplo, múltiples servidores blade comparten un solo suministro de energía y una conexión de red, de modo contrario a tener esas fuentes dedicadas a cada módulo. Cada blade se conecta en un plano medio común que provee conexiones a la estructura de switch, la cual a su vez permite a los blades comunicarse con sistemas o módulos externos a través de Ethernet, Canal de Fibra o InfiniBand. El chasis de un servidor blade soporta 10 a 16 blades y un rack 42U puede soportar hasta 100 blades.
Aplicaciones
En cualquier factor de forma, cada módulo es responsable por una tarea específica. Por ejemplo, ciertos blades pueden ser utilizados para cómputo/procesamiento, mientras otros podrían ser usados para propósitos I/O, tales como controladores de almacenamiento o componentes personalizados. Cada blade se conecta al plano medio, lo cual provee conexión a la estructura de switch en la parte de atrás del chasis que provee conexión entre todos los blades, así como al mundo exterior.
Las aplicaciones de servicios financieros tienen que estar fuertemente enfocadas en cómputo y almacenamiento. Una cantidad masiva de poder de cómputo se necesita para extenso procesamiento de números, modelado financiero, simulaciones y análisis conducidos por bancos de inversión, agencias de gobierno y firmas de consultoría financiera. En tales aplicaciones, los clusters de cómputo de alta disponibilidad son creados para asegurar el alto rendimiento, así como para minimizar el riesgo de tiempos muertos del sistema causados por un solo módulo funcionando mal. Un gran número de blades de procesamiento son utilizados en tales aplicaciones.
En la pasada década, la tendencia en aumento de la banca, compras y negocios bursátiles en línea, ha impulsado las crecientes demandas de almacenamiento de la industria de servicios financieros. Desde el historial de transacciones, balances de cuentas y pagos en línea hasta cotizaciones de bolsa en tiempo real, servicio al cliente de 24 horas y cotizaciones a cualquier hora del día, todos estos datos necesitan estar disponibles de manera instantánea tanto para usuarios institucionales como para consumidores por igual.
Perder los datos no es una opción. Cualquier tiempo de inactividad del sistema es considerado como un enorme inconveniente para los clientes y potencialmente perjudicial para los negocios. Una gran porción de los servidores implementados en el sector financiero es utilizada para almacenar y respaldar (generalmente varias veces) los datos financieros recientemente creados o actualizados. Además, para adecuarse a las rápidamente crecientes necesidades de almacenamiento, las instituciones implementan granjas de servidores expansivas.
La necesidad de desplegarse
PCIe, que se ha establecido a sí mismo como el protocolo para interconexión seriada de elección para enlazar el host (procesador/chipset) a una amplia variedad de periféricos montados en tarjetas madre. Estos periféricos pueden ser componentes I/O tales como procesadores gráficos, controladores de red, controladores de almacenamiento o simplemente slots PCIe vacíos para la expansión I/O personalizada del usuario. Una extensión del protocolo convencional PCI utilizada desde principios de los noventas, PCIe provee no solo interconexión de alta velocidad sino también Calidad de Servicio (QoS, por sus siglas en inglés), integridad de datos, así como un ecosistema expansivo.
Debido a los requerimientos de energía y a la naturaleza sensible a los costos de los chipsets, fabricantes como Intel y AMD solo integran un número limitado de puertos PCIe en el chipset. Esto significa que solo una limitada cantidad de terminales (por ejemplo, dispositivos o módulos) pueden ser conectadas a la estructura del switch.
Al mismo tiempo, la necesidad de I/O de sistema continúa creciendo. En un esfuerzo para diferenciar sus productos y crear sistemas especializados que se dirijan a segmentos de mercado de nicho (por ejemplo, supercómputo o almacenamiento de alto nivel), los diseñadores de sistemas generalmente llenan sus sistemas de terminales, diseñándolos para soportar numerosas interfases.
Típicamente, el número de lanes/puertos PCIe soportados por el chipset no es suficiente para las necesidades de los servidores de aplicación específica. De allí la necesidad de un switch PCIe con un gran número de lanes y puertos para proveer conectividad a todos los otros blades/módulos en el sistema.
El tema común entre las aplicaciones de cómputo y almacenamiento, sea en forma de rack o blade, es que un gran número de módulos están interconectados unos con otros.
El gráfico debajo muestra un cluster de cómputo con blades en el cual la estructura de switch se acomoda en varios servidores blade a través de un switch PCIe. Típicamente, hay cuatro estructuras de switch en cada servidor blade -dos para networking (por ejemplo, Ethernet) y dos para almacenamiento (por ejemplo, Canal de Fibra).
Hay dos estructuras de switch por interfacse para proveer redundancia en caso de que una de las estructuras de switch fracase. Cada estructura de switch está conectada a cada servidor blade a través de un plano medio. Como se muestra en la Figura 1, cada servidor blade generalmente hospeda un switch de 24 lanes más pequeño, el cual luego se despliega hacia los varios extremos de terminal (memoria, ASICs e I/O) en el blade. Si fuera necesario, los switches PCIe también pueden ser añadidos a las estructuras de switch de almacenamiento para desplegarse hacia un gran número de controladores de Canal de Fibra.
Muchos de los switches PCIe actuales soportan un puerto integrado no transparente (NT), el cual permite aislamiento del host en sistemas a prueba de fallas; eso previene que los CPU traten de tomar propiedad de los dispositivos del otro. Así que, en lugar de tener que utilizar un dispositivo separado para que sirva como un buffer NT para aislamiento del host, el puerto NT integrado permite a los diseñadores implementar una solución de un chip, ahorrando así espacio en la tarjeta, energía y costo.
Soluciones altamente integradas disminuyen el costo general del sistema
Con la llegada de PCIe como un protocolo que cumple las necesidades de interconexión de los diseñadores de sistemas de siguiente generación, la demanda mundial de switches PCIe ha experimentado un crecimiento significativo. Como resultado, los fabricantes de switch PCIe ahora proveen un expansivo portafolio adecuado para una variedad de aplicaciones. Además, estos fabricantes están integrando más y más características y funcionalidad que los diseñadores, a su vez, están promoviendo en sistemas versátiles y altamente eficientes; ahora los diseñadores pueden lograr con un switch lo que en el pasado hacían con múltiples dispositivos.
Por ejemplo, varios switches PCIe incluyen hoy un motor integrado de acceso a la memoria directa (DMA, por sus siglas en inglés). En el pasado, los diseñadores tenían que basarse en el procesador de sistema para proveer funcionalidad DMA. Esto significaba que tenían un número limitado de procesadores para escoger y terminaban pagando una prima por estos procesadores. Pero con los switches incluyendo ahora motores DMA integrados, los diseñadores pueden escoger de una gran selección de procesadores de bajo costo que no se pedirán para la función de DMA.
De manera similar, la siguiente generación de servidores se benefician del soporte multiraíz (o multi-host) encontrado en los switches PCIe. Los grandes switches con extensos lanes y puertos, y los switches multiraíz pueden ser divididos en switches virtuales más pequeños, cada uno con su propio host. Por tanto, los clusters de cómputo redundante pueden compartir un switch multiraíz en la tarjeta madre posterior, en vez de tener un switch PCIe separado en cada estructura de switch.
Como se ilustra en el gráfico de abajo, por ejemplo, los Blades 7 al 12 son redundantes de los Blades 1 al 6. Sin embargo, en lugar de que cada cluster redundante requiera su propio switch PCIe, la característica multiraíz permite un gran switch de 96 lanes para darle servicio simultáneamente a ambos clusters.
Para simplificar el diagrama, solo una estructura de switch se muestra aquí. Sin embargo, una estructura de switch redundante podría ser utilizada como respaldo en caso de que la estructura de switch primaria fallara alguna vez. Además, los switches en los blades soportan un motor DMA integrado, mejorando el desempeño del sistema en aplicaciones de cómputo pesado.
Otra forma en que esta nueva generación de servidores está beneficiándose de la tecnología PCIe es a través de una característica llamada multicast, que también está siendo integrada en los switches PCIe. Multicast permite que un packet que llega al switch sea simultáneamente enviado hacia múltiples dispositivos conectados al switch. Esto ayuda a descargar al procesador de tener que hacer escrituras redundantes.
Por ejemplo, en un sistema redundante, el procesador podría tener que enviar los mismos datos a hasta cuatro sistemas para asegurar que los datos están apropiadamente respaldados. Sin multicast, el procesador tendría que ejecutar cuatro transacciones de escritura separadas para completar esta tarea, retrasando el desempeño general del sistema. Con multicast, el procesador solo tiene que ejecutar una escritura y el switch PCIe automáticamente creará copias redundantes del mismo packet y las enviará a las ubicaciones apropiadas. Esto libera al procesador para enfocarse en otras tareas y ayuda a aumentar el desempeño general del sistema.
Con el sector de servicios financieros poniendo mucha más presión en los productores de servidores para proveer dramáticamente un mejor desempeño, un rango más amplio de capacidades y más valor por el dinero invertido, el switching PCIe está jugando ahora un rol crucial en el diseño de servidores. Los profesionales de TI pueden estar seguros de que los servidores que incorporan la tecnología serán los más eficientes disponibles.
Touseef Bhatti, PLX Technology, Network World (US)
Touseef Bhatti es ingeniero en jefe de márketing de producto en PLX Technology. Él tiene un BSCE de la Universidad de Michigan.