Llegamos a ustedes gracias a:



Reportajes y análisis

Cloud Computing

Las TI como servicio

[01/06/2008] El reciente lanzamiento del servicio App Engine de Google y la fuerte apuesta Blue Cloud de IBM se unen a experiencias ya en marcha de compañías como Amazon y Salesforce.com que refuerzan el carácter rompedor con que el modelo cloud computing promete irrumpir masivamente en el escenario de la entrega de servicios TI. Un concepto cuyo conocimiento a fondo el ruido mediático, los expertos y la propia industria están haciendo imprescindible para cualquier responsable de TI con visión de futuro.

Las ventajas de cloud computing parecen evidentes, al permitir a las empresas escalar rápidamente, en función de sus necesidades, sin tener que añadir equipamiento, software ni personal. A través de la nube (una red pública, generalmente Internet), los clientes pueden acceder bajo demanda —siguiendo el modelo de pago por uso— a un gran número de recursos informáticos asignados dinámicamente, dotándose así de una enorme capacidad de procesamiento y almacenamiento sin necesidad de instalar máquinas localmente, lo que se traduce en considerables ahorros de todo tipo, incluso de consumo energético.
Para Juan Manuel Rebés, jefe de producto Unix de IBM SPGIT, este modelo está inspirado en la idea de disponer de infraestructuras tecnológicas de modo que los recursos informáticos sean compartidos dinámicamente, se encuentren virtualizados y resulten accesibles como un servicio. Aúna de esta manera gran parte de las nuevas tendencias de software como servicio, virtualización de recursos, redes grids, e informática bajo demanda. En el modelo cloud computing, los grandes clusters de sistemas se enlazan entre sí para proporcionar servicios tecnológicos como si se tratase de una única supercomputadora global.
Cloud computing no es utility computing, ni grid computing, ni software-as-service ni servicio gestionado. Pero lo contrario tampoco es falso. De todos estos conceptos más familiares para el usuario toma alguno o muchos principios, aunque con dinámicas propias que hay que saber comprender. Además de estar influido por estas tecnologías, así como por las tendencias hacia la virtualización, la automatización, el procesamiento masivamente paralelo y la orientación al servicio, cloud computing surge como consecuencia de las expectativas creadas por la Web 2.0 entre los usuarios. Recientemente, Steve Mills, vicepresidente senior y responsable ejecutivo de la unidad de software de IBM, señalaba a Network World el papel que juega a favor del nuevo modelo la excitación con que la gente está recibiendo las capacidades de mashup y Web 2.0. La idea de que una aplicación no tenga que existir en un lugar concreto, sino que pueda estar compuesta de múltiples piezas procedentes de múltiples sitios se la debemos a la Web 2.0.
Modelo alternativo de adquisición y entrega
Pero, como todas las corrientes tecnológicas transformadoras, su adopción implica cambios significativos en todos los niveles de la cadena de suministro que afectan al propio modelo de negocio, tanto de los proveedores de este tipo de ofertas como de las empresas clientes que basen su actividad total o parcialmente en la entrega de servicios TI. Daryl C. Plummer, experto en tendencias emergentes en aplicaciones de Gartner, se refería a cloud computing en el Symposium ITxpo 2008, celebrado por la consultora en Barcelona el pasado mayo, como un modelo alternativo de adquisición y entrega de servicios que cambiará las relaciones entre compradores de productos y servicios TI, así como la forma en que estos suministradores entregan sus ofertas.
 En su exposición, Plummer se refirió al nuevo modelo como una tendencia que alterará el modo en que muchas organizaciones enfocan el suministro de servicios de negocio mediante las TI. Aunque el analista de Gartner reconoce que cloud computing se ha convertido en un término de moda que está siendo utilizado en formas incluso contradictorias, destaca como su carácter transformador, en cualquiera de sus variedades, está cambiando el entorno TI. La virtualización, la orientación al servicio e Internet han convergido para fomentar un fenómeno que permite a consumidores y negocios elegir cómo adquirir o suministrar servicios TI (...) Los servicios suministrados a través de la ?nube? robustecerán una economía basada en la entrega y consumo de cualquier cosa, desde el almacenamiento a la computación, el video o la gestión de las finanzas.
Plummer coincide con una buena parte de expertos y analistas en negar la naturaleza novedosa —al menos en su totalidad— del modelo cloud, pero sí considera realmente innovador el cambio de mentalidad que se está produciendo para que la tecnología sea usada por la gente preocupándose solo de lo que puede hacer con ella, no por cómo implementarla. Porque cloud computing no es una arquitectura ni una infraestructura, sino una abstracción de las relaciones entre consumidores y proveedores de servicios. Con ecos y concomitancias con otras tendencias de las que bebe —como grid y utility computing— Plummer resume gráficamente el nuevo modelo: justo como las eléctricas venden energía y las compañías telefónicas voz, los servicios TI —ya sean de gestión de la seguridad de la red, hosting de centro de datos o de facturación— ahora pueden ser fácilmente suministrados como un simple servicio contractual.
Pero al moverse todavía en sus inicios, cloud computing también tiene sus riesgos, como la falta de acuerdos de nivel de servicio (SLA) y de una base probada de casos de éxito de clientes, además de los nuevos retos de seguridad que añade, de los que los relacionados con el cumplimiento normativo podrían ser de peso en determinados sectores de actividad. Uno de ellos tiene su raíz en algo que suele suceder con
los nuevos modelos: la falta de acuerdo en su propia definición. La mezcla de intereses con que las compañías del sector suelen acercarse a las tendencias que más prometen, acaban por añadir confusión donde debería primar el conocimiento. Una confusión que acaba por llevar a las empresas usuarias —carentes de las herramientas necesarias para realizar sus propios análisis de necesidades y sacar las mejores conclusiones para su negocio— a quedar en manos de los mensajes comerciales.
 
Los ocho mitos de Gartner
Gartner identifica ocho mitos en relación al concepto de cloud computing:
Mito 1. Cloud computing es una arquitectura o una infraestructura.
Mito 2. Cada suministrador tendrá una nube diferente.
Mito 3. SaaS es la cloud.
Mito 4. Cloud computing es una nueva revolución.
Mito 5. Toda la informática remota es cloud computing.
Mito 6. Internet y la web son la nube.
Mito 7. Todo estará en la cloud.
Mito 8. Cloud elimina las redes privadas.
 
Ventajas y riesgos
La propia naturaleza de cloud computing aporta ventajas considerables a las empresas, como la compartición de la capacidad entre varios usuarios para atender los picos de carga y poder escalar sin dificultades, o la eliminación —o al menos reducción— de las tareas de mantenimiento, entre otras muchas. El acceso y consumo de los servicios TI desde la nube permite, según Xabier Ormazábal, responsable de preventa para España y Portugal de Salesforce.com, desplegar soluciones con una gran rapidez, debido a que las empresas ya no necesitan realizar grandes inversiones ni abordar proyectos de puesta en marcha de complejos sistemas de hardware y software en sus propias instalaciones. En definitiva, el modelo cloud facilita a las empresas de todo tamaño y sector focalizar sus recursos en optimizar sus procesos, liberándolas del mantenimiento, actualización y amortización de grades inversiones tecnológicas en sistemas, que con frecuencia son menos eficientes y están infrautilizados dentro de cada organización.
Para todo tipo de empresas
Si bien, de entrada, parece que cloud computing está más indicado para pequeñas y medianas empresas sin grandes entornos TI y con poca capacidad de inversión, el modelo también se está abriendo a las grandes organizaciones, ya sea para soportar determinadas aplicaciones o para apoyar proyectos concretos de duración limitada. Por su naturaleza, las compañías con entornos informáticos distribuidos serán las que más aprovechen las posibilidades de cloud computing, pero también puede aportar grandes beneficios para todo tipo de organizaciones y sectores. Administración Pública, compañías privadas, universidades y otras instituciones ya están utilizando esta tecnología, que permite sustituir las granjas de servidores por una infraestructura distribuida y basada en estándares abiertos, asegura Juan Manuel Rebés.
De la misma opinión se muestra Xabier Ormazábal, para quien este tipo de soluciones está indicado para empresas de cualquier tamaño. Para las más pequeñas este procedimiento de gestión empresarial les da la posibilidad de acceder a las ventajas que ofrecen las tecnologías pero sin realizar una fuerte inversión en infraestructuras que no pueden afrontar. Por otro lado, las grandes compañías buscan, cada vez más, un valor añadido y una mayor efectividad en las soluciones que incorporan. Y a través del cloud computing pueden conseguirlo. Debido al mayor número de usuarios de sus despliegues, las grandes empresas son, con frecuencia, los mayores beneficiarios.
Abundan las referencias a casos de éxito, como los de BitCurrent y The New York Times, que recientemente alquiló el servicio de Amazon para pasar los artículos aparecidos en el diario durante las últimas décadas a PDF susceptibles de búsquedas. Un proyecto que, de haberlo emprendido internamente, hubiera tardado 14 años en completarse y que, gracias a Amazon, pudo culminar en un solo día por nada más que 240 dólares.
En principio, los usuarios pioneros de cloud computing están siendo las startups de Web. 2.0 que quieren empezar a operar rápidamente sin muchos gastos de capital, así como los ISV que desean ofrecer sus aplicaciones en modo SaaS. Pero también hay empresas más covencionales que confían a la nube aplicaciones específicas, como recursos humanos o automatización de las fuerza de ventas. Para el jefe de producto Unix de IBM SPGIT, cloud puede ser de aplicación a un amplio número de tareas. Cloud Computing permite que los centros de cómputo de las empresas funcionen como Internet, como un tejido de recursos distribuido y accesible globalmente, en lugar de depender de máquinas locales o parques remotos de servidores. Por ello, las
tareas que se pueden beneficiar de este tipo de tecnologías son numerosas, como, por ejemplo, las aplicaciones de software críticas para el funcionamiento de una empresa, como los sistemas de información operativa administrados por grandes líneas aéreas.
En el caso concreto de Salesforce.com, Ormazábal destaca la aportación de cloud computing a la colaboración. A través de nuestra herramienta Salesforce para Google Apps ofrecemos una potente combinación de aplicaciones básicas para ampliar la productividad empresarial (correo electrónico, calendario, documentos, hojas de cálculo o mensajería instantánea) y CRM (ventas, marketing, servicios y apoyo, partners) que permite a los profesionales comunicarse y colaborar en tiempo real a través de la web. Esa colaboración puede materializarse en compartir no sólo información a través del correo electrónico, sino también en gestionar y compartir documentos en línea, en su comunicación instantánea o en la exposición de tareas de ventas y campañas de marketing, entre otros.
Obstáculos y precauciones. Las grandes expectativas con que está siendo recibido por buena parte de la industria y de los expertos se enfrentan todavía a una serie de obstáculos que habrá que ir eliminando si el objetivo es que cloud computing se convierta en una opción mayoritariamente aceptada. En estos primeros inicios de su evolución, permanecen abiertos algunos riesgos, de especial gravedad cuando se trata de confiar a la nube las aplicaciones críticas de negocio.
?Privacidad de los datos. Si los datos no están del todo seguros ni siquiera en los propios centros de datos corporativos, el peligro aumenta cuando se dejan en manos de la nube. Además, hay que tener en cuenta que muchos países obligan a que los datos de sus ciudadanos sean guardados dentro de sus territorios nacionales. Sin embargo, en el modelo cloud computing los datos pueden residir en cualquier lugar, sin que el cliente sea consciente de su ubicación geográfica.
?Seguridad. Como entornos heterogéneos y abiertos, se han de reforzar las medidas de seguridad contra amenazas externas y la corrupción de los datos, advierte Juan Manuel Rebés. En este sentido, Xabier Ormazábal recuerda la necesidad de que los proveedores sigan las mejores prácticas en encriptación y seguridad física y lógica, garantizando también altos niveles de disponibilidad, accesibilidad y escalabilidad. Además, en Salesforce.com realizamos auditorias exhaustivas de nuestros sistemas con empresas externas que garantizan nuestra conformidad con los estándares de ISO 27001, SysTrust y SAS 70 Type II. Asimismo, publicamos el estado de nuestros nodos en tiempo real en http://trust.salesforce.com para
garantizar la transparencia y confianza de todos nuestros clientes. Por otra parte, garantizamos el cumplimiento de las normativas referentes a las leyes de protección de datos de todos los países en los que operamos.
?Licencias de software. El modelo típico de licenciamiento del software corporativo no siempre se adapta bien al mundo del cloud computing, donde una aplicación podría estar corriendo sobre un elevado número de servidores. Por ello, según Juan Manuel Rebés, se producirá un proceso de maduración que llegará por sí mismo, según evolucionen los modelos de programación actuales hacia formas más ?cooperativas?.
?Aplicaciones. Para que las aplicaciones funcionen en el nuevo modelo, han de ser escritas de modo que puedan ser divididas entre múltiples servidores. Y como no todas están preparadas para ello, las empresas se ven obligadas a reescribirlas.
?Interoperabilidad. Es necesario crear estándares universales que garanticen la interoperatividad entre servicios, algo que ahora no ocurre. Es importante que se creen estándares universalmente aceptados, que no se reproduzcan las fracturas que el mundo de la informática ha ido viendo generación a generación entre estándares incompatibles, afirma Rebés.
?Cumplimiento normativo. ¿Qué sucede cuando los auditores quieren certificar que la empresa está cumpliendo las regulaciones normativas y la aplicación en cuestión está corriendo en la nube? Este es un problema todavía sin solución.
?SLA. Hoy no tiene mucho sentido confiar a un tercero las aplicaciones de la empresa si no se regula el cumplimiento de acuerdos de nivel de servicio (SLA) que garanticen un determinado rendimiento.
?Monitorización de red. Otra cuestión que permanece sin respuesta es cómo hacer un instrumento de la empresa la red y las aplicaciones en escenarios cloud. ¿Qué tipos de herramientas de monitorización de redes y aplicaciones se requerirán?
Cloud Storage
Como variedad del modelo cloud computing, cloud-storage, al ofrecer algo así como un enorme disco duro distribuido en Internet, está emergiendo como una atractiva opción de almacenamiento para un número cada vez mayor de compañías que basan su actividad en el suministro de servicios por la web. Con cloud storage, también los datos residen en la web, asignados dinámicamente entre varios
centros de datos para garantizar su almacenamiento y entrega allí donde son requeridos con la mayor rapidez. Es decir, los usuarios nunca saben donde están almacenados sus datos en un momento dado. Geoff Tudor, cofundador de Nirvanix, firma de reciente introducción en este mercado, compara cloud storage al servicio eléctrico: después de todo, cuando enciendes la luz, no sabes exactamente donde se origina cada electrón.
 
Los modelos de la nube
Cloud Computing: Un estilo de computación donde la capacidad TI, masivamente escalable, es suministrada como un un servicio a través de Internet a múltiples clientes externos
Modelo de adquisición: Servicio
Modelo de negocio: Pago por uso
Modelo de acceso: Internet
Modelo técnico: Escalable, elástico, compartible
Aunque son ya muchos las compañías interesadas por entrar en este nuevo mercado, hoy la oferta de cloud storage mejor conocida es Simple Storage Service (S3) de Amazon, que cuenta ya con dos años de existencia. También es de reseñar el servicio de la mencionada Nirvanix, lanzado en octubre del 2007, y Mosso, una compañía de Rackspace que daba a conocer su oferta hace sólo unas semanas. También algunas grandes marcas del mundo de las TI están ya preparando con entusiasmo sus ofertas cloud storage, como Google, que trabaja en el lanzamiento de un servicio de almacenamiento en línea informalmente conocido como GDrive. Asimismo, EMC, tras la compra el pasado septiembre de la firma de backup en línea Mozy, ultima un servicio masivo con tecnologías denominadas en código Hulk and Maui. Para alimentar esta estrategia, la compañía adquiría recientemente la firma Pi, cuyo software y servicios ayudan a los usuarios a seguir el rastro de sus datos y contenidos personales en la red. La tecnología y la planilla de Pi serán integrados en la nueva unidad Cloud Infrastructure and Services Division de EMC, en la que también se encuadran, además de la tecnología de Mozy, la plataforma de servicios basados en cloud Fortness.
Pese a su liderazgo, es del servicio de Amazon del que se conocen menos detalles sobre la infraestructura cloud utilizada. De la de la de Nirvanix se sabe que utiliza software personalizado y tecnologías de
sistemas de archivos corriendo sobre servidores de almacenamiento en Intel localizados en seis centros de Estados Unidos, Asia y Europa, aunque el número de estos emplazamientos ascenderá a 20 a finales de año; por motivos de seguridad, los datos del cliente se replican en dos o tres de estos centros. En cuanto a Mosso, el servicio se suministra desde el centro de datos de Dallas (Estados Unidos) de Rackspace, al que pronto se añadirá otro centro en Reino Unido.
FreeDrive, el servicio de compartición de archivos y de almacenamiento personal para usuarios de redes sociales, como Facebook, MySpace y Bebo, lleva usando el servicio de Nirvanix desde el pasado noviembre. Gracias a su solución, la compañía puede convertir videos a formato flash automáticamente y enviar datos directamente desde la nube a sus más de 180 mil clientes; de otro modo, todos los datos tendrían que ser confiados al propio servidor web de FreeDrive. Por su parte, Geezeo, red social centrada en las finanzas personales, utiliza el servicio S3 de Amazon para almacenar sus 251 GB de datos, con la tranquilidad de que, en caso de que sus necesidades de almacenamiento se multipliquen, nunca tendrá problemas.
Los clientes de Nirvanix pagan 18 céntimos de dólar al mes por GB de almacenamiento, más otros 18 céntimos por GB cargado y descargado. En la misma banda de precios, S3 de Amazon cobra 15 céntimos de dólar al mes por GB de almacenamiento, más 10 céntimos por GB por datos transferidos. Un cliente podría comenzar con solo unos pocos cientos o miles de usuarios y, con el tiempo, escalar a Petabytes de almacenamiento sin necesidad de cambiar la aplicación.
Problemas pendientes. Las empresas tienen que tener en cuenta que, por atractivo que parezca, cloud storage también presenta problemas potenciales. El pasado febrero, por ejemplo, S3 de Amazon sufrió una caída de varias horas que afectó a las aplicaciones web de muchos de sus clientes. La compañía atribuyó la falla al elevado número de peticiones simultáneas de autenticación, y solucionó el incidente añadiendo capacidad al servicio encargado de estas funciones y al sistema que las monitoriza. En cualquier caso, Amazon aseguró que el incidente no provocó la pérdida de ningún dato, ya que almacena múltiples copias de cada objeto en varios emplazamientos.
También hay que considerar la posibilidad de que los datos sean robados o consultados por personas no autorizadas. Como advierte Forrester Research, quizá lo mejor sea no confiar en cloud storage los datos y aplicaciones críticos para la actividad de la empresa hasta que los proveedores hayan eliminado estos riesgos potenciales. Mientras tanto, una solución consiste en ser proactivos y encriptar los datos sensibles y asegurar sus movimientos con tecnologías como SSL.
Oportunidades de mercado
El flamante mercado de cloud computing ofrece oportunidades para un amplio grupo de proveedores y suministradores de tecnología de múltiples perfiles. Grandes consolidados de las TI convencionales y del mundo web, así como un número creciente de startups, empiezan a disputarse —compitiendo y aliándose— un segmento de la demanda que ve en la nube una opción atractiva. Según Forrester Research, el mercado de cloud computing acoge fundamentalmente dos tipos de agentes: enablers y proveedores de servicios. Los primeros aportan las infraestructuras subyacentes del modelo, focalizándose por lo general en áreas tecnológicas como virtualización y automatización del centro de datos. Es el caso de firmas como IBM, VMware/EMC, Red Hat, Intel, Sun, Citrix o BladeLogic, entre otras.
Por proveedores hay que entender las compañías que como Amazon, Salesforce.com, Rackspace, Google o Microsoft —también decidida a explotar las posibilidades de cloud computing— ponen a disposición de los clientes sus grandes entornos de computación, creados con las plataformas e infraestructuras de los enablers y por lo general siguiendo el modelo SaaS.
Todos ellos tienen la posibilidad de sacar partido del nuevo mercado, si bien para ello Gartner recomienda a los suministradores tradicionales proporcionar servicios que se apoyen en sus tecnologías, en vez de limitarse a comercializarlas. Microsoft, por ejemplo, se centraría en ofrecer a los usuarios email como un servicio en vez de limitarse a vender servidores Exchange. Igualmente, HP podría dedicarse a vender servicios de impresión hospedados a través de la nube. Y Oracle, como ya hace Amazon, podría vender soluciones de almacenamiento hospedado. Estos cambios serán más naturales para unos que para otros, y la transformación no siempre será total, pues en muchos casos seguirán siendo necesarias las tecnologías onpremises, es decir, instaladas en la sede del cliente, tanto para operar de forma interna y aislada como en conexión con la nube.
Los grandes se mueven. De los grandes suministradores de TI interesados en cloud computing, IBM es quizá el que antes y con más fuerza ha construido toda una estrategia que ya empieza a dar resultados. Se trata de la iniciativa Blue Cloud, dada a conocer el pasado noviembre y basada en los servidores web de la compañía. Las ofertas Blue Cloud correrán sobre BladeCenters con procesadores Power y x86, y facilitarán el aprovisionamiento y asignación de recursos a cargas de trabajo fluctuantes. Consta además de imágenes de Linux virtualizadas PowerVM y Xen, así como planificación de cargas de trabajo en paralelo Hadoop, todo ello soportado por software de gestión de servidores Tivoli.
Fruto de esta estrategia, a finales de febrero se abría el primer centro de cloud computing de IBM en Europa, concretamente en Irlanda.
Desde Dublín, la compañía ofrecerá recursos de investigación y servicios a diversos centros satélites de próxima construcción en Europa, Medio Oriente y África. Además, a través de este centro los expertos de IBM ayudarán a las empresas de la zona EMEA en la adopción del nuevo modelo. El catálogo del centro irlandés se inauguró con el servicio IBM Idea Factory for Cloud Computing, que aplica la tecnología Web 2.0 para crear redes sociales como plataformas de fomento de la innovación en ideas de negocio.
 
¿Qué pedir a un proveedor de storage-cloud?
?Medidas de seguridad. Los usuarios deben encriptar sus propios archivos. No permitir que sea el proveedor quien lo haga.
?Acceso y auditoría de los datos. El acceso a los datos permite averiguar si alguien los ha modificado. Algunos proveedores como Amazon.com y Nirvanix ofrecen esta posibilidad sin costo adicional.
?Localización de los datos almacenados. En algunos casos los clientes necesitan saber la localización exacta de los datos por motivos de cumplimiento normativo. Nirvanix ofrece la opción de bloquear los datos en localizaciones físicas específicas pero Amazon no.
?Tiempos de caída del servicio. Los clientes del Simple Storage Service de Amazon sufrieron durante horas una caída del servicio el pasado febrero. Aún así, los cloud services pueden ser más fiables que el propio centro de datos del cliente. Amazon y Nirvanix dan créditos a los clientes si el tiempo de actividad mensual cae por debajo del 99,9%.
?Recuperación de desastres. No hay modo de evitarlo: de vez en cuando se producen catástrofes. Por ello hay que asegurarse de que el proveedor cuenta con un plan de recuperación de desastres que permita acceder offline a los principales centros de datos.
También a la nueva estrategia de IBM obedece la alianza establecida con Google para colaborar en la creación de un servicio en nube para pymes que estará operativo en el 2009. El acuerdo supone una extensión hacia el mundo real del alcanzado en octubre del 2007 entre ambas firmas, a fin de desplegar de forma experimental una plataforma de cloud computing en varias universidades de Estados Unidos, como la de Stanford y el MIT (Instituto Tecnológico de Massachussets).
Otro de los grandes que ya afilan su oferta para el mundo cloud, y especialmente cloud storage, es EMC, además de HP y Sun. Tampoco Microsoft —que se mueve en un periodo marcado por su estrategia de software+servicios— ha querido dar la espalda al nuevo modelo. Recientemente, Ray Ozzie, el máximo responsable de desarrollo de software del fabricante, lanzaba un memo interno destripando lo que será el germen del Microsoft del futuro, en la que el término cloud aparecía como tendencia clave junto a otros como web y mesh (malla). Para el mundo de la empresa, la compañía extenderá las ventajas de las infraestructuras y servicios basados en cloud a los negocios con una gran flexibilidad y a través de distintos escenarios: como despliegues internos, como servicios de hosting o como suministro de servicios basados en cloud. De este modo se cubre tanto las necesidades de las grandes corporaciones como de las pymes, creando una business mesh. Y, aunque los responsables de la compañía todavía no confirman el lanzamiento de una plataforma de desarrollo en la nube, todo así lo confirma, teniendo en cuenta la fuerte base de desarrolladores de Microsoft y el reciente anuncio de Google App Engine, basado en ese concepto.
Los hijos de la web. Auténticos pioneros en cloud computing son las firmas nacidas de la web y para la web, como Amazon, Google y Salesforce.com. Amazon está añadiendo en la actualidad nuevas características a su plataforma de servicios Elastic Compute Cloud para mejorar su disponibilidad. EC2 proporciona capacidad de computación adaptable a las necesidades de los clientes, generalmente desarrolladores. Con la nueva característica Availability Zones, las aplicaciones pueden ser asignadas a múltiples localizaciones con propósitos de failover. Con Elastic IP Addresses se simplifica la gestión de direcciones, al permitir, por ejemplo, activar y desactivar servidores sin tener que cambiar los establecimientos DNS. EC2 opera en conjunción con otros servicios de Amazon, como Simple Storage Service y SimpleDB.
Otra de las grandes marcas de Internet, Google, estrena ahora un servicio de hospedaje de aplicaciones web de empresa en su propia infraestructura con una nueva herramienta para desarrolladores, App Engine. No es el primero en hacerlo, ya que App Engine competirá con servicios similares de Amazon y Salesforce.com, pero sí podría resultar el más barato, ya que los servicios básicos serán gratuitos. El objetivo de Google es simplificar el despliegue de una nueva aplicación y facilitar su escalado cuando sea preciso.
App Engine está basado en tecnología ya utilizada por Google, como Bigtable, un sistema de almacenamiento distribuido que forma la base de Google Earth, y su propio sistema de archivos GFS. En la versión lanzada en abril —que como release previa no contiene todas las
características del futuro servicio— solo trabajan 10 mil desarrolladores, pero está previsto ir aumentando ese número. También hasta su puesta en marcha operativa, la capacidad estará limitada a 500 MB de almacenamiento y una transmisión de hasta 10 Gbps por día y aplicación.
Finalmente, Salesforce.com confía en replicar el éxito de su oferta SaaS en el modelo cloud computing ofreciendo una plataforma de desarrollo en la nube. Se trata de Force.com., dirigida a empresas que no quieran o no puedan invertir tiempo y dinero en infraestructuras de software interna. La compañía ha anunciado además la integración de las aplicaciones en línea de productividad de Google en su oferta de soluciones de gestión con los clientes (CRM) bajo demanda. El acuerdo estrecha la relación que ya mantenían ambas compañías, que permitía incluir el servicio AdWords de Google en la solución de Salesforce.com. Al fin y al cabo, como manifestó recientemente el CEO de Google, Eric Schmidt, las dos empresas tienen modelos y filosofías similares. Profético y enfático, su homólogo en Salesforce, Marc Benioff, apuntó en el momento de darse a conocer la alianza que la unión de las dos compañías impulsará la transformación de la industria. El final del software ya está aquí.
Proyectos pioneros
El carácter experimental que todavía tiene cloud computing —pese a estar ya operativo en distintas formas y ofertas— está llevando a la industria y las instituciones nacionales e internacionales a investigar estas tecnologías con el objetivo de crear modelos de producción válidos tanto para el mercado de consumo como el de empresa. De las actividades que se están desplegando alrededor de cloud computing con propósitos innovadores destacan dos, una en Estados Unidos y otra en el ámbito de la Unión Europea. En ambas IBM es protagonista.
El pasado marzo, IBM lanzó una iniciativa de investigación en colaboración con dos entidades universitarias de Estados Unidos dirigida al suministro de software de automatización y autogestión del centro de datos en entornos de cloud computing. En concreto, la alianza con el Georgia Institute of Technology y la Ohio State University se centra en el desarrollo de tecnologías de autogestión por la división de autonomic computing de IBM, creada en el 2001. La compañía espera que finalmente los avances conseguidos en este terreno puedan integrarse en sus productos comerciales, especialmente en el software de gestión de Tivoli. "IBM está siendo muy activa en autonomic computing y más recientemente en cloud computing. Y este proyecto permitirá unir ambas áreas para dar respuestas a los clientes, aseguraba recientemente a Network World Matt Ellis, vicepresidente de Autonomic Computing del fabricante. Las tendencias hacia entornos informáticos cada vez más flexibles
incrementan la complejidad de la gestión. Por ello, se necesita automatización que soporte estos entornos dinámicos.
Finalmente, la iniciativa desplegará un prototipo de cloud computing que enlace los centros de datos de las dos universidades, llamado Critical Enterprise Cloud Computing Services (CECCS). Los investigadores probarán durante los próximos tres años los beneficios de la automatización en cuestiones como balanceo de cargas, consolidación de servidores, recuperación de desastres, failover automatizado y fiabilidad.
El otro gran proyecto en cloud computing es el promovido por la Unión Europea, dentro de la primera convocatoria del Séptimo Programa Marco en el capítulo de Infraestructuras, Ingeniería y Arquitecturas de Software y Servicios. Dotado con 17 millones de euros, Reservoir (Resources and Services Virtualization without Barriers) persigue explorar el despliegue y gestión de servicios TI a través de diferentes dominios administrativos, plataformas tecnológicas y geografías.
Desde Europa y con España. Liderado por IBM, a través de su laboratorio de investigación de Haifa, en Reservoir participan un total de 13 socios europeos, entre ellos Telefónica Investigación y Desarrollo y el Grupo de Arquitectura de Sistemas Distribuidos de la Universidad Complutense de Madrid, junto a otras entidades como SAP Research, Sun Microsystems, Thales y universidades de Umea, Londres, Lugano y Messina. Como apunta en su blog Ignacio Martín LLorente, catedrático del Grupo de Arquitecturas de Sistemas Distribuidos de la Universidad Complutense de Madrid (http://imllorente.dsa-research.org/?p=14), el objetivo de Reservoir durante los próximos 3 años es desarrollar la tecnología necesaria para desplegar soluciones de infraestructura que proporcionen servicios bajo demanda, a un precio competitivo y asegurando calidad de servicio. Esta tecnología será decisiva para los centros de datos del futuro, virtualizando la infraestructura que soporta los servicios y permitiendo que varios centros de datos compartan su infraestructura con el fin de satisfacer demandas puntuales que excedan la capacidad local. En otras palabras, una empresa podrá acceder a servicios o infraestructura adicional por medio de la tecnología Reservoir en alguno de los sitios del cloud. Si existe una demanda puntual para un servicio hospedado en un centro de datos, éste podrá alquilar dinámicamente servicios adicionales. El proyecto incluye la validación de la nueva tecnología en escenarios de la administración pública, procesos de negocio, computación bajo demanda y telecomunicaciones.
El proyecto está organizado en tres actividades tecnológicas principales: gestión de servicios, gestión de entornos de ejecución
virtuales e infraestructura de virtualización. El Grupo de Arquitectura de Sistemas Distribuidos de la Universidad Complutense de Madrid es responsable de la actividad sobre gestión de entornos de ejecución virtuales. En el contexto de la actividad se desarrollarán nuevas tecnologías Grid y de virtualización para satisfacer las demandas fluctuantes de recursos en entornos tipo cloud computing, asegura Ignacio Martín Llorente. En el modelo cloud de Reservoir se emplea el motor de gestión de virtualización OpenNEbula (www.OpenNEbula.org), una tecnología de código abierto desarrollada por el grupo de investigación de Martín Llorente, que está siendo adoptada en numerosas soluciones cloud y datacenter.
Comunicaciones World, España