Llegamos a ustedes gracias a:



Reportajes y análisis

Almacenamiento en la nube: ¿Hay una "mejor" manera de configurarlo?

[19/04/2012] Teniendo en cuenta que la computación en nube es aún incipiente, no debe sorprender que las opiniones sobre la mejor manera de hacer una arquitectura de almacenamiento, varíen ampliamente. De hecho, parece probable que no exista tal panacea -diferentes tipos de nube privada casi siempre requieren enfoques diferentes.
¿O no?
En una reciente entrevista, el CEO de Piston Cloud, Joshua McKenty afirmó rotundamente que, cuando se trata de nubes privadas, el mejor enfoque es integrar el almacenamiento en los servidores, una instalación que ofrece un rendimiento mucho más allá de los enfoques más tradicionales. "El modelo correcto es un servidor de dos U con mucho de JBOD, señala McKenty. "Debido a que no está limitado por la potencia del motor, sino por el número de ejes".
Funciona, de acuerdo con McKenty, porque el almacenamiento de conexión directa en los servidores no tiene que ser enviado a través de un único guardián como un servidor de archivos o incluso un switch SAN. En lugar de 20 servidores hablándole a este servidor de archivos de un total de ancho de banda de 10G -dijo-, cada servidor tiene su propio puerto de 10G, lo que significa que tienen un valor de ancho de banda de 200G. Incluso, si los discos individuales son más lentos y necesita almacenar múltiples copias de archivos, el rendimiento total es muy superior a lo que puede lograr con una configuración más tradicional.
Esta idea es una "herejía" en muchos departamentos de TI, señala McKenty, debido a que desean utilizar NAS o SAN para gestionar sus cargas de trabajo de almacenamiento en lugar de integrar el almacenamiento y calcular en cada nodo. Describió cómo un equipo de operaciones de la NASA trató de sustituir uno de sus sistemas integrados.
"Trajeron un archivador de 20 mil dólares y lo pusieron en la parte inferior del rack. Tenía Fibre Channel. Y le pusieron un conmutador Brocade. Y cablearon todo con Fibre Channel y FCoE. Y tuvieron cuatro días de tiempo de inactividad ajustando esto, y tuvieron un 20% del desempeño que les dimos con nuestra configuración", afirmó.
¿Pero este enfoque integrado de JBOD es exclusivo para las nubes privadas que tienen cargas especiales de trabajo como las de la NASA?
Por supuesto que no, McKenty señala en una conversación. "Hemos visto que los clientes utilizan la misma arquitectura para las cargas de trabajo VDI, alojamiento web, análisis de riesgos y otras acciones computarizadas pesadas como las simulaciones financieras o las simulaciones de Monte Carlo".
El hecho de que la densidad de almacenamiento y velocidad de procesador estén creciendo mucho más rápidamente que la capacidad de red -una idea que McKenty describe como la brecha de la movilidad- es una razón clave de por qué el modelo distribuido funciona tan bien, agrega.
"La velocidad de la luz triunfa sobre la infraestructura. La latencia de mover los datos nunca va a continuar con el crecimiento de la cantidad de datos que estamos ahorrando y cuánto procesamiento queremos hacer sobre ellos", señala. "Y, sin embargo, si se fija en una arquitectura SAN o NAS, siempre está poniendo todo su almacenamiento esencialmente en un solo dispositivo en el extremo de un cable único".
Opiniones contrarias
Ni que decir, no todos están de acuerdo con la caracterización que hace McKenty de las cuestiones planteadas.
"Él está hablando de hacer algo así como retroceder en el tiempo unos 10 o 15 años", señala el gerente de marketing de producto de Brocade, Scott Shimomura. "Él está argumentando de que el enfoque de almacenamiento de conexión directa es la mejor manera de garantizar el rendimiento, y eso no es lo que piensan los usuarios sobre su almacenamiento en la actualidad".
Él también critica la idea de que un sistema represente el camino a seguir para casi todos los usos.
"La trampa en la que muchas personas caen es que quieren decir esto es nube o estos son grandes datos o hay un tipo de infraestructura que va a resolver el hambre mundial, y la realidad es que depende de la carga de trabajo ", agrega. "Va a tener diferentes aspectos del aprovechamiento de una aplicación en distintas partes de su infraestructura".
El director de marketing de producto de HP Storage Sean Kinney también está en desacuerdo, y argumenta que el enfoque integrado cálculo/almacenamiento hace que a los usuarios les resulte difícil adaptarse a las nuevas cargas de trabajo de una manera flexible y ágil.
También señala que la idea de mantener múltiples copias de archivos individuales con el fin de mejorar la velocidad de acceso va en contra de la tendencia de la industria hacia la deduplicación de datos.
"Si el costo del disco no fuera un problema -que suele serlo para casi todos los clientes de TI- esto podría funcionar", señala Kinney. "Las TI de las empresas tienden a ser bastante cautelosas. Lo que McKenty está proponiendo, en este momento parece ser algo como un proyecto científico".
Por su parte, el CEO de Piston Cloud se burla de la noción de que el costo sea un problema -en comparación con el precio de los sistemas de almacenamiento especializados, el almacenamiento distribuido es mucho más económico. "Hacer convergir a la infraestructura con los discos duros en todos los servidores es menos costoso que contribuyentes dedicados", señala.
Entonces, ¿quién tiene la razón?
En lo que respecta al rendimiento, es probable que McKenty tenga algo de razón, de acuerdo con el analista principal de Forrester Research, Andrew Reichman.
"Las arquitecturas de almacenamiento simples, creo yo, terminan trabajando mejor de muchas maneras", señala. "El disco que hay a bordo de un servidor es el disco más rápido de I/O que pueda tener, porque está conectado al bus.... Parte del problema con las matrices de almacenamiento es que ellos comparten capacidad a través de un gran número de servidores, por lo que si estamos hablando de una aplicación que no tiene realmente una gran cantidad de capacidad de almacenamiento... probablemente no tendrá suficientes ejes para alcanzar una buena velocidad".
Dicho esto, señala, el CEO de Piston Cloud puede haber exagerado la amplia gama de casos de uso posibles. El menor crecimiento de los datos y la intensidad de la CPU son los factores clave para que una carga de trabajo encaje en un modelo, sostiene Reichman. Sin embargo, los algoritmos lo suficientemente avanzados para copiar y manejar datos podrían hacer un sistema más eficaz.
En la cuestión de costos, es difícil decir de manera concluyente si las ideas "heréticas" de McKenty se mantendrán, según el investigador Seamus Crehan.
"Los discos pueden ser más baratos que comprar un sistema de matriz de almacenamiento con interfases especializadas (por ejemplo, Fibre Channel). Sin embargo, si tiene que comprar una gran cantidad de discos redundantes y posiblemente hayan otros costos asociados de red y gestión, entonces esto puede ser mitigado", señala Crehan. "Es difícil de decir, sin comparar todas las piezas de las implementaciones específicas. Las empresas tienen diversas necesidades de TI y lo que tiene sentido para una puede no tener sentido para otra".
Calcular las cifras
En cualquier caso, Crehan señala que las empresas se pueden mover en dirección a la integración. Las ventas del hardware de switching que se utilizaría en el entorno de McKenty están en aumento.
"El segmento del mercado está disfrutando de un enorme crecimiento y las implementaciones de la nube son un motor importante de esto. Al mismo tiempo, a pesar de los fuertes resultados 4Q11, el total de los envíos de Fibre Channel no creció en el 2011", agrega. Esto podría implicar un descenso en el interés de las matrices de almacenamiento.
Sin embargo, Crehan advierte que la inercia organizativa y técnica podría obstaculizar algunas empresas que buscan hacer una actualización.
"Las empresas más tradicionales tienen mucha de su infraestructura existente para la integración con las nuevas implementaciones, así como las estructuras organizativas (como equipos separados de computación, almacenamiento y redes), que hacen que algunas de estas implementaciones tipo nube sean más difícil", finaliza.
Jon Gold, Network World (EE.UU).