Llegamos a ustedes gracias a:



Reportajes y análisis

Reducir los costos de energía del centro de datos

Uno o más de estos enfoques podrían hacerle ahorrar mucho dinero -y no le costarán mucho.

[13/04/2011] Los actuales administradores de centro de datos están haciendo malabares con las demandas de los negocios por moverse en un mercado más competitivo, con las limitaciones presupuestarias impuestas por una economía debilitada. Ellos buscan formas de reducir los gastos operativos, y uno de los gastos operativos de más rápido crecimiento -y por lo general el más grande- en el centro de datos es la energía, consumida largamente por los servidores y los refrigeradores.

Por desgracia, algunas de las técnicas más eficaces de ahorro de energía requieren una considerable inversión inicial, con el retorno de su dinero calculado en años. Sin embargo, algunas técnicas subestimadas cuestan casi nada -son menospreciadas, ya que parecen poco prácticas o demasiado radicales. Los ocho criterios de ahorro de energía mencionados aquí han sido probados en entornos reales de centros de datos, con eficacia demostrada. Algunos se pueden poner a trabajar de inmediato con una pequeña inversión, mientras que otros pueden requerir gastos de capital, pero ofrecen una recuperación más rápida de la inversión, que los ROI tradicionales en los gastos de TI.
El santo grial de la medición de la eficiencia del centro de datos es la medición de la Eficacia en el Uso de la Energía (PUI, por sus siglas en inglés), en la que los números más bajos son mejores y el 1.0 es el objetivo ideal. PUI compara el consumo total de la electricidad del centro de datos con la cantidad convertida en tareas informáticas útiles. Un valor poco común de 2.0 significa que dos vatios que entran al centro de datos se convierten en uno al momento de llegar a un servidor -la pérdida de energía es convertida en calor, que a su vez requiere energía para ser eliminada a través de los sistemas tradicionales de refrigeración en los centros de datos.
Al igual que con todos los indicadores simples, debe tomar la PUI por lo que es: una medida de eficiencia eléctrica. No tiene en cuenta otras fuentes de energía, como la energía geotérmica o celdas de hidrógeno, muchas de los cuales pueden ser aprovechadas para reducir los costos totales de energía. Las técnicas que siguen pueden o no reducir su medida de PUI, pero puede evaluar su eficacia simplemente revisando su factura mensual. Ahí es donde realmente importa.
No encontrará energía solar, eólica, o de hidrógeno en la bolsa de trucos que le presentamos aquí. Estas fuentes alternativas de energía requieren una considerable inversión en tecnologías avanzadas, lo que retrasa demasiado el ahorro de costos en la actual crisis financiera. Por el contrario, ninguna de las siguientes ocho técnicas requiere tecnologías más complejas que ventiladores, conductos y tuberías.
Los ocho métodos son los siguientes:
1. Suba el calor
La ruta más sencilla de ahorrar energía es una que puede aplicar esta misma tarde: encienda el termostato del centro de datos. La sabiduría convencional indica que la temperatura del centro de datos debe ser de 20 grados (68 grados Fahrenheit) o menos. La lógica es que estas temperaturas extienden la vida del equipo y le darán más tiempo para reaccionar en caso de una falla del sistema de refrigeración.
La experiencia demuestra que las fallas de los componentes del servidor, en especial para los discos duros, se incrementan con las temperaturas de funcionamiento más altas. Pero en años recientes, la economía TI ha cruzado un umbral importante: ahora los costos operativos del servidor generalmente exceden los costos de adquisición. Esto puede hacer que la preservación de un hardware sea de menor prioridad que la reducción de costos operativos.
En la conferencia de GreenNet del año pasado, el zar de la energía de Google, Bill Weihl citó la experiencia de Google con la elevación de las temperaturas del centro de datos, indicando que se pueden utilizar 26,6 grados (80 grados Fahrenheit) de forma segura como un nuevo punto de ajuste, a condición de que se cumpla un simple requisito en su centro de datos: la separación de los flujos de aire frío y caliente tanto como sea posible, utilizando cortinas o barreras sólidas si es necesario.
A pesar de que 26,6 grados es una actualización "segura" de la temperatura, la experiencia de Microsoft muestra que podría llegar más alto. Su centro de datos en Dublín, Irlanda, funciona en modo de "menos refrigeración", utilizando el enfriamiento al aire libre, con temperaturas en el servidor de hasta 35 grados (95 grados Fahrenheit). Pero tenga en cuenta que hay un punto de reducción del rendimiento a medida que se eleva la temperatura, debido a la mayor velocidad requerida por el ventilador del servidor, que incrementa el consumo de energía.
2. Apague los servidores que no están en uso
La virtualización ha puesto de manifiesto la ventaja en ahorro de energía que representa dar de baja a los procesadores, discos y memoria que no se utilizan. ¿Por qué no apagar los servidores del todo? ¿La mayor "agilidad empresarial" de tener servidores siempre listos, vale la pena el costo del exceso de energía que consumen? Si puede encontrar casos en que se pueden apagar servidores, se puede lograr el uso de energía más bajo de todos -cero- al menos para los servidores. Pero tendrá que hacer frente a las objeciones de los escépticos.
Por un lado, comúnmente se cree que el ciclo de la energía reduce la esperanza de vida de los servidores, debido a la tensión puesta sobre los componentes no intercambiables, tales como los condensadores de la placa base. Lo que resulta ser un mito: en realidad, los servidores se construyen a partir de los mismos componentes utilizados en los dispositivos que habitualmente pasan por los frecuentes ciclos de energía, tales como automóviles y equipos médicos. No hay evidencia que apunte a una disminución de MTBF (tiempo medio entre fallas) como resultado de los tipos de ciclos de energía que soportan los servidores.
Una segunda objeción es que los servidores tardan demasiado tiempo en el encendido. Sin embargo, a menudo se puede acelerar el inicio del servidor apagando controles innecesarios de diagnóstico, el arranque de imágenes instantáneas ya operativas, y explotando las características de inicio tibio disponible en algunos dispositivos.
Un tercer motivo: los usuarios no van a esperar si tenemos que encender un servidor para dar cabida a mayor carga, no importa lo rápido que sea el arranque. Sin embargo, la mayoría de las arquitecturas de aplicaciones no le dicen no a los nuevos usuarios, solo hacen que sus peticiones sean más lentas, para que los usuarios no sean conscientes de que están esperando que se enciendan otros servidores. Cuando las solicitudes golpean duro los límites de la plantilla, los usuarios han demostrado que están dispuestos a pasar allí el tiempo que sea hasta ser informados por un simple "estamos iniciando varios servidores para acelerar su solicitud".
3. Utilice aire de refrigeración "libre".
Las altas temperaturas del centro de datos le ayudarán a explotar más fácilmente la segunda técnica de ahorro de energía, llamada enfriamiento de aire libre que utiliza el aire exterior como fuente de aire fresco, sin pasar por enfriadores caros, como lo hace Microsoft en Irlanda. Si está tratando de mantener los 26,6 grados (80 grados Fahrenheit) y el aire exterior marca 21,1 grados (70 grados Fahrenheit), puede obtener toda la refrigeración que necesita dirigiendo ese aire hacia su centro de datos.
El esfuerzo necesario para implementar esto es un poco más laborioso que en el método 1 del arranque por el termostato: debe redirigir los conductos para conducir el aire exterior e instalar medidas rudimentarias de seguridad -tales como filtros de aire, trampas de humedad, válvulas contra incendios, y sensores de temperatura - para garantizar que el aire libre no dañe equipos electrónicos sensibles.
En un experimento controlado, Intel se dio cuenta de una reducción del 74% en el consumo de energía con enfriamiento de aire libre. Dos remolques llenos de servidores, uno con refrigeración tradicional y el otro utilizando una combinación de refrigeradores y aire exterior con grandes partículas de filtrado, se ejecutaron durante 10 meses. El trailer de aire libre fue capaz de utilizar el aire de refrigeración exclusivamente el 91% del tiempo. Intel también descubrió una importante capa de polvo en el interior de este servidor, lo que refuerza la necesidad de una eficaz filtración de partículas finas. Es probable que tenga que cambiar los filtros con frecuencia, por lo que tenga en cuenta el costo de filtros lavables y reutilizables.
A pesar del polvo significativo y los cambios en la humedad, Intel no encontró un aumento en la tasa de fracasos del remolque con aire libre. Extrapolados a un centro de datos que consume 10 megavatios, esto se traduce en casi tres millones de dólares anuales en ahorros de costos de enfriamiento, junto con 76 millones menos de litros de agua, que es en sí mismo un producto caro en algunas regiones.
4. Utilizar el calor del centro de datos para calentar los espacios de la oficina
Puede duplicar su ahorro de energía mediante el uso de los BTU del centro de datos para calentar los espacios de oficina, que es lo mismo que decir que utilizará aire de la oficina relativamente fresco para enfriar el centro de datos. En climas fríos, posiblemente podría tener todo el calor que necesita para mantener a la gente cálida y gestionar cualquier requisito adicional de enfriamiento con aire puro del exterior.
A diferencia de la refrigeración de aire libre, puede que nunca necesite de nuevo su sistema de calefacción existente; por definición, cuando hace calor afuera no se requiere un horno de personas. Y olvídese de las preocupaciones por la contaminación química de los humos que emanan de la sala de servidores. Los servidores compatibles con Restricción Moderna de Sustancias Peligrosas (RoHS por sus siglas en inglés) han eliminado contaminantes hostiles al medio ambiente -como el cadmio, plomo, mercurio y polybromides - a partir de su construcción.
Al igual que con la refrigeración de aire libre, la única tecnología que necesita para sacar esto adelante es un buen conocimiento técnico en: ventiladores, conductos, y termostatos. Probablemente notará que su centro de datos utilizará termas suficientes para reemplazar los sistemas tradicionales de calefacción. El centro de datos de IBM en Uitikon, Suiza, fue capaz de calentar la piscina de la ciudad de forma gratuita. El ahorro de energía fue igual a la de la calefacción de 80 viviendas. TelecityGroup París, incluso utiliza el calor residual del servidor para calentar, durante todo el año, los invernaderos para la investigación del cambio climático.
La reconfiguración de su sistema de horno puede suponer un proyecto de fin de semana, pero los costos son probablemente tan bajos que puede obtener ahorros en un año o menos.
5. Use SSD para activar el uso de datos de solo lectura
Las SSD han sido populares en las netbooks, tablets, y computadoras portátiles debido a su rápido acceso, bajo consumo de energía y bajas emisiones de calor. También son utilizadas por los servidores, pero hasta hace poco sus costos y confiabilidad han sido un obstáculo para su adopción. Afortunadamente, las SSD han bajado de precio considerablemente en los últimos dos años, lo que las convierte en candidatas para el rápido ahorro de energía en el centro de datos -siempre y cuando las utilicen para la aplicación correcta. Cuando se emplean correctamente, las SSD pueden bajar los precios de alimentación y refrigeración de disco, con un consumo eléctrico 50% más bajo y una generación de calor de casi 0.
Un problema que las SSD no han limado es el número limitado de operaciones de escritura, alrededor de cinco millones de escrituras en el nivel de los dispositivos de una sola célula (SLC), apropiadas para el almacenamiento del servidor. Los componentes de las células multinivel de bajo costo (MLC) tienen una mayor capacidad, pero una décima parte de la resistencia SLC.
Las buenas noticias sobre las SSD son que puede comprar unidades compatibles que reemplazan fácilmente a las giratorias hambrientas de energía. Para una rápida reducción de la energía, sustituya grandes conjuntos de datos de solo lectura, como el streaming de archivos de video, con SSD. No tendrá problemas de uso de la SSD y obtendrá un aumento instantáneo de rendimiento, además de ahorro de costos en energía y enfriamiento.
Busque unidades diseñadas específicamente para servidores, en lugar de las que son para uso de escritorio. Estas unidades suelen tener varios canales de arquitecturas para aumentar el rendimiento. La interfase más común es SATA2.0, con velocidades de transferencia de 3Gbps. Los dispositivos SAS de gama alta, tales como la línea Hitachi / Intel Ultrastar SSD, pueden alcanzar velocidades de 6Gbps, con capacidades de hasta 400GB. Aunque los dispositivos SSD han mostrado algunas fallas de diseño, estos han dado principalmente con drivers de escritorio y portátiles que utilizan contraseñas y encriptación BIOS, factores que no participan en los dispositivos de almacenamiento de servidores.
Tenga pensado pasar algunos unos ciclos cerebrales supervisando el uso de su SSD, al menos inicialmente. Intel y otros fabricantes de SSD proporcionan herramientas de análisis que siguen los ciclos de lectura y escritura, así como los eventos de falla en la escritura. Los discos SSD reasignan automáticamente la escritura para igualar el desgaste a través de un dispositivo, un proceso llamado nivelación de carga, que también puede detectar y recuperarse de algunos errores. Cuando se presentan fallas reales de escritura, es hora de reemplazar la unidad.
6. Use la energía directa en el centro de datos
Sí, la corriente continua está de vuelta. Esta fuente de energía aparentemente caprichosa goza de resurgimientos periódicos como reflujo de las tecnologías eléctricas y de flujo. El atractivo es simple: los servidores utilizan la corriente directa internamente, por lo que la alimentarlos de esa energía directa ahorrará costos mediante la eliminación de la conversión de AC a DC ejecutada por la fuente de poder interna del servidor.
La corriente directa era muy popular en la década del 2000, debido a que las fuentes de alimentación en los servidores de esa época tenían una eficiencia de conversión del centro de datos del 75%. Pero entonces la eficiencia en el suministro de energía mejoró y los centros de datos pasaron a unos más eficientes 208-voltios de AC. En el 2007, la corriente cayó en desgracia. Luego, en el 2009, la corriente directa se recuperó, debido a la introducción de productos de alta tensión para centros de datos.
En los centros de datos más antiguos, con suministros de electricidad de 16.000 VAC (voltios de corriente alterna), fueron convertidos primero a 440 VAC para el enrutamiento dentro del edificio, luego a 220 VAC, y finalmente a los 110 VAC utilizados por los servidores de ahora. Cada conversión desperdiciaba energía por ser menos del 100% eficiente, con pérdida de potencia que era echada fuera en forma de calor (que tenía que ser eliminada con ventilación, gastando más energía). El cambio a 208 VAC eliminó una conversión, y con las fuentes de poder del servidor corriendo con una eficiencia del 95%, ya no había mucho que ganar.
Pero el 2009 trajo una nueva línea de equipos para el centro de datos que podían convertir 13.000 VAC directamente a 575 VDC (voltios de corriente continua), que luego pueden ser distribuidos directamente a los bastidores, donde otro convertidor los lleva a 48 VDC para el consumo de los servidores en el rack. Cada conversión es dos veces más eficiente como la vieja tecnología del transformador de corriente alterna y emite mucho menos calor. Aunque los proveedores aseguran hasta un 50% de ahorro cuando se combinan las reducciones eléctricas y de refrigeración, la mayoría de los expertos dicen que un 25% es un número más creíble.
Este enfoque radical requiere algunos gastos en nuevas tecnologías, pero las tecnologías involucradas no son complejas y han demostrado ser confiables. Un costo potencial oculto es el cable de cobre necesario para la distribución de 48 VDC. Como dicta la Ley de Joule, los voltajes más bajos requieren mayores conductores para llevar el mismo poder que los voltajes más altos, debido al mayor amperaje. Otro factor de costos con los centros de datos es la caída del voltaje por la distancia (un 20% por cada 100 pies), en comparación con AC. Esa es la razón por la que la conversión de 48 VAC se hace en el rack, en lugar de hacerlo en el armario de la red eléctrica.
Por supuesto, la conversión a corriente directa requiere que sus servidores se puedan acomodar a las fuentes de alimentación de 48 VDC. Para algunos, la conversión a DC es un simple intercambio de la fuente de alimentación. Los servidores con base de chasis, como los servidores blade, pueden ser más baratos de convertir, porque muchos servidores comparten una sola fuente de alimentación. Google solía bajar costos reemplazando las fuentes de poder con baterías de 12V, asegurando un 99% de eficiencia sobre la infraestructura de UPS (fuente de poder ininterrumpida).
Si está planeando una actualización del servidor, es posible que desee considerar sistemas más grandes que pueden ser alimentados directamente con 575 VDC, como el Power 759 de IBM, que recientemente ha demolido a sus competidores en el juego "Jeopardy". La nueva construcción tiene la ventaja de comenzar con una hoja en blanco, como hizo la Universidad de Syracuse el año pasado con la construcción de un centro de datos, alimentando los mainframes IBM Z y Power con 575 V CC.
7. Enterrar el calor en la tierra
En las regiones más cálidas, el enfriamiento gratuito no puede ser práctico durante todo el año. Iowa, por ejemplo, tiene inviernos moderados, pero un verano abrasador, con temperaturas del aire en el rango de los 33 a 38 grados, lo que no es apto para la economización del aire.
Pero el suelo a menudo tiene una temperatura constante, relativamente baja, una vez que se excava unos metros. La tierra bajo la superficie es menos afectada por las condiciones climáticas externas, como la lluvia o el calor que pueden sobrecargar los equipos tradicionales. Al meter tuberías en la tierra, el agua caliente generada por el calor de servidores puede ser llevada a las profundidades donde la tierra circundante absorberá el calor por conducción.
Una vez más, la tecnología no es ciencia espacial, pero la refrigeración geotérmica requiere una buena cantidad de tuberías. Una instalación geotérmica exitosa también requiere un análisis cuidadoso. Debido a que un centro de datos genera calor de forma continua, bombear ese calor hacia un pozo subterráneo podría llevar a una saturación local y pérdida de refrigeración. Un análisis de las capacidades de la tierra cercana al centro de datos, determinará la cantidad que puede absorber determinada zona, si la asistencia de transferencia de calor de los acuíferos subterráneos mejorará la disipación del calor, y qué impacto ambiental podría generar.
La universidad ACT puso a prueba la implementación de un disipador de calor geotérmico para su centro de datos en la ciudad de Iowa. Otra empresa del Medio Oeste, Prairie Bunkers, de Haskings, Nebraska, está buscando enfriamiento geotérmico para su parque de centro de datos, convirtiendo cinco mil pies cuadrados de bunkers de munición en centros de datos individuales.
8. Llevar el calor hacia el mar a través de tuberías
A diferencia de los disipadores de calor geotérmicos, el océano es un disipador de calor infinito para los propósitos del centro de datos. El truco es estar cerca al mar, pero es probable que piense: cualquier cantidad lo suficientemente grande de agua, como los grandes lagos, pueden servir como depósito refrigerante.
El último escenario de refrigeración acuática es una isla de centro de datos, que podría utilizar el océano circundante para enfriar el centro de datos utilizando conmutadores de calor de agua salada a agua dulce. La idea es tan buena que Google lo patentó en el año 2007. El enfoque de Google está muy lejos de los objetivos de este artículo, pues el primer paso es adquirir o construir una isla.
Pero la idea no es tan descabellada si ya está localizado razonablemente cerca de la orilla del océano o un lago grande. Las centrales nucleares han utilizado enfriamiento de agua de mar o de lagos por décadas. Google tomó este enfoque para su centro de datos en Hamina, Finlandia, una fábrica convertidora de pasta de papel. El uso de las aguas frías del mar Báltico como el único medio para enfriar su nuevo mega centro de datos, así como para suministrar agua para sus sistema contra incendios, demuestran un alto grado de confianza en la fiabilidad del método. La planta de celulosa tiene una entrada de agua en el Báltico, con tubería de dos metros de diámetro, reduciendo los costos de ejecución del proyecto.
Los lagos de agua dulce se han utilizado con éxito para enfriar los centros de datos. El campus de la universidad Cornell en Ithaca, Nueva York, utiliza cerca de 2,5 mil millones de galones de agua del Lago Cayuga para enfriar no solo sus centros de datos, sino todo el campus. La primera instalación de refrigeración en su tipo, llamada Enfriamiento de Lago y construida en el año 2000, bombea 35 mil galones por hora, distribuye el agua a 3,88 grados (39 grados Fahrenheit) hacia los edificios del campus que se encuentra a 2,5 kilómetros de distancia.
Tanto los sistemas de enfriamiento de agua dulce o salada requieren un componente algo caro: un conmutador de calor para aislar el agua natural del agua utilizada para enfriar directamente el centro de datos. Este aislamiento es necesario para proteger tanto al medio ambiente como a los equipos sensibles del servidor, de producirse una fuga en el sistema. Más allá de este caro componente, el enfriamiento con agua de mar (y de lago) no requiere nada más que una tubería de agua.
¿Cuánto dinero desea ahorrar?
El valor de estas técnicas es que no son mutuamente excluyentes: puede mezclar y combinar medidas de ahorro para cumplir con su presupuesto de corto plazo y sus objetivos a largo plazo. Puede comenzar con el simple recurso de aumentar las temperaturas del centro de datos, a continuación, evaluar el valor de otras técnicas con los ahorros obtenidos de ese primer paso.
Mel Beckman, InfoWorld (US)