Llegamos a ustedes gracias a:



Reportajes y análisis

Diez tecnologías empresariales emergentes

¿Cuál de las nuevas tecnologías actuales triunfarán a largo plazo? Estas son nuestras mejores estimaciones

[13/12/2011] Todo el mundo observa las tendencias. Pero en un momento determinado, para señalar qué tendencias realmente tejerán su camino hacia la informática empresarial, es necesario darle una mirada a las tecnologías que dieron vida a estas últimas frases.
Esa es la idea detrás del Top Ten de la revista americana InfoWorld sobre las diez tecnologías empresariales emergentes del 2011. Estamos todos tan entusiasmados con los grandes cambios de dirección de las TI empresariales -desde las TI orientadas al consumidor a la convergencia de la infraestructura- pero ¿qué nuevas tecnologías han surgido para permitir que estas ideas tomen forma? Eso es lo que nos responde InfoWorld.
Entre la multitud de tecnologías empresariales que aún no han sido adoptadas ampliamente, creemos que las siguientes diez tendrán el mayor impacto. Nuestros criterios de selección son subjetivos más que objetivos, derivados de muchos años de evaluación en el centro de pruebas de InfoWorld, observando el ir y venir de la industria, y haciendo un balance de lo que atrae a los clientes empresariales. En otras palabras, esta lista se basa en el juicio y la experiencia colectiva de los editores y colaboradores de InfoWorld, no en una fórmula mágica.
Salvo para los ejemplos, hemos evitado la mayor parte posible de descripciones de productos específicos. Nos estamos centrando en tecnologías en vez de sus implementaciones de productos específicos congelados en el tiempo, simplemente porque la tecnología evoluciona rápidamente.
Puede que no esté de acuerdo con nuestra selección -de hecho, debido a lo polémico que es el mundo de las TI, nos sorprendería que lo esté. Así que por favor deje sus opiniones en nuestra sección de comentarios.
10. HTML5
InfoWorld ha escrito bastante sobre HTML5, pero nos pasamos el tiempo debatiendo internamente la posibilidad de incluirlo en esta lista. Los detractores señalaron que hemos estado poniendo etiquetas para formar las páginas web desde el inicio de la World Wide Web. HTML5 se ha limitado a añadir nuevas etiquetas. ¿Dejamos de hacer lo que estábamos haciendo para celebrar cuando alguien inventó la etiqueta <strong>?
Otros tomaron el punto de vista práctico de que aunque HTML5 se parece a la antigua HTML, las tareas que realiza son dramáticamente diferentes. El almacenamiento local de datos, la etiqueta <canvas>, y la etiqueta de vídeo permiten hacer mucho más que colocar palabras e imágenes en un rectángulo. Además, la nueva especificación WebSockets de HTML5 define una nueva forma de llevar a cabo la comunicación full-dúplex para aplicaciones web basadas en eventos.
Al final, la decisión de Adobe de finalizar el desarrollo de Flash móvil apuntaló el debate. De repente, una esquina entera de la web que se utiliza para entregar vídeo, juegos casuales, y otros contenidos animados está de vuelta en el juego. Todo un sector de la industria del desarrollo web se va a reorganizar a medida que avancemos de Flash hacia HTML5. Y que representa un cambio tectónico para los desarrolladores web. (Peter Wayner)
9. Hipervisores del lado del cliente
La virtualización de escritorio convencional ha fallado por dos razones fundamentales: Se requiere una conexión continua entre cliente y servidor, y el propio servidor tiene que ser fornido para ejecutar todas las máquinas virtuales de escritorio.
Un hipervisor de cliente resuelve ambos problemas. Se instala en una computadora de escritorio normal o en una portátil, aprovechando la potencia de procesamiento del cliente. Y los usuarios de computadoras portátiles pueden tener una "VM de negocios" que contiene el sistema operativo, aplicaciones y configuraciones personales de configuración. Esa VM es segura y está separada de cualquier otra cosa que se esté ejecutando en ese escritorio -como un malware que algún usuario despistado haya descargado accidentalmente- y consigue todas las ventajas de gestión de virtualización, incluyendo instantáneas de VM, portabilidad, facilidad de recuperación, y así sucesivamente.
Los hipervisores de cliente Type 2, como VMware Player, VirtualBox y Parallels Desktop existen desde hace años; se ejecutan sobre el escritorio de Windows, Linux o OS X para proporcionar un contenedor para un sistema operativo invitado. Los hipervisores de cliente Type 1 -que tratan a todos los sistemas operativos de escritorio como invitados- ofrecen una mayor seguridad y rendimiento. También son completamente transparentes para el usuario final, nunca un inconveniente en la búsqueda de la adopción generalizada de una tecnología.
Los hipervisores de cliente apuntan a un futuro en el que llevaremos nuestros propios dispositivos al trabajo, y en los que descargaremos o sincronizaremos nuestros equipos de oficina virtual para comenzar el día. En realidad, se puede utilizar cualquier computadora con un cliente hipervisor compatible, en cualquier lugar. La palabra clave es "futuro". Citrix, MokaFive, y Virtual Computer son las únicas empresas hasta el momento en lanzar un hipervisor de cliente Type 1, debido en parte al problema que Windows ha tenido desde hace años: el suministro de un número suficiente de unidades o drivers para ir a través de una amplia gama de hardware. Sin embargo, estas empresas se unirán el próximo año por la propia Microsoft, que tiene previsto incluir la tecnología Hyper-V en Windows 8. 
No se equivoquen, Windows 8 Hyper-V requerirá hardware de 64 bits de Intel o AMD. No espere que la virtualización venga de su tablet Windows 8 basada en ARM -o cualquier otra tablet- en cualquier momento pronto. Tenga en cuenta también que, a diferencia de Citrix, MokaFive, y Virtual Computer, que construyeron sus clientes de hipervisores con el expreso propósito de facilitar la gestión de los sistemas de Windows, Microsoft ha declarado que Windows 8 Hyper-V estará dirigido estrictamente a los desarrolladores y profesionales de TI.
Pero bueno, estamos hablando de Microsoft. No se detendrá con los desarrolladores y profesionales de TI. Sí, las tabletas están encontrando su camino hacia el lugar de trabajo, pero es el quid del asunto es que las grandes implementaciones de escritorio de Windows no van a desaparecer, y Microsoft estará bajo más presión que nunca para hacerlas más fáciles de manejar. Con más y más empleados que trabajan fuera de la oficina -o que utilizan un subsidio para comprar sus propias computadoras y llevarlas al trabajo- la seguridad y la gestión del hipervisor del lado del cliente ofrece una alternativa convincente de computación de escritorio. (Eric Knorr).
8. Herramientas de construcción continua
Hay dos maneras para que los programadores vean nuevas herramientas como Jenkins, Hudson y otros servidores de "integración continua", que colocan todo el código a través de un flujo continuo de pruebas sin fin: Los codificadores solitarios soltaron gritos de horror sobre la forma en que están encadenados a una máquina. Los de mentalidad más colaborativa entre nosotros están de acuerdo con la forma en que las herramientas de construcción nos ayudarán a trabajar juntos para el mejoramiento de todo.
Cuando un servidor de integración continua le envía un correo electrónico regañándole sobre los problemas con el código que ingresó diez segundos atrás, no quiere arruinar su sentimiento de realización. Solo está tratando de mantenernos a todos alineados hacia la misma meta.
Herramientas como el Hudson o Jenkins no son nuevas, porque han existido una serie de herramientas propietarias de integración continua durante algún tiempo. Rational Team Concert, Team City, y Team Foundation Server son solo algunas de las herramientas propietarias que están impulsando la idea de equipo. Pero la aparición de soluciones de código abierto fomenta el tipo de experimentación e innovación que se produce cuando los programadores tienen la oportunidad de mejorar sus herramientas.
Hay por lo menos 400 plug-ins de Jenkins que han circulado públicamente y un número incontable de hacks flotando alrededor de las empresas. Muchos de ellos se integran con diferentes repositorios de código fuente como Git, o hacen arreglos para construir el código final con otro lenguaje como Python. Cuando la construcción haya finalizado, una serie de plug-ins compiten para anunciar los resultados con archivos MP3, eventos Jabber, o decenas de otras señales. Los plúg-ins de copia de seguridad, despliegue, gestión de nubes, y muchos sin clasificar, están listos.
Este trabajo está siendo rápidamente transformado en un servicio. Cloudbees, por ejemplo, ofrece una nube de principio a fin de las máquinas que empaqueta Jenkins, con un repositorio de código que se alimenta directamente en una nube que ejecuta el código. Mientras que algunas compañías de nube solo están ofreciendo máquinas de baja calidad con reducidas distribuciones de Linux, Cloudbees le permite ingresar su código, mientras se encarga de todo lo demás en la pila. (Peter Wayner).
7. Confíe en un chip
Los expertos han reconocido que con el fin de garantizar la seguridad al más alto nivel de aplicación, todas las capas -incluyendo la construcción física de los dispositivos informáticos- deben ser verificadas.
El Módulo de plataforma segura (TPM, por sus siglas en inglés) de Trusted Computing Group (TCG) fue el primer chip de hardware en ser popularmente adoptado para asegurar la confianza del hardware y las secuencias de arranque. Fue utilizado por muchas empresas líderes, como Apple y Microsoft, y forma la columna vertebral de la tecnología de Microsoft BitLocker Drive Encryption y la próxima arquitectura Windows 8 UEFI Secure Boot.
Este año, Intel combinó el chip TPM con una capa de hipervisor de hardware para proteger las secuencias de arranque, la memoria y otros componentes. Cualquier proveedor de software puede tomar ventaja de ello. McAfee, ahora una subsidiaria de Intel, ha anunciado su primera integración de la nueva tecnología con DeepSafe. Ellos esperan que otros vendedores y sistemas operativos los sigan.
Por su parte, el TCG no se ha dormido en sus laureles. La última especificación de su chip TPM original se ha transformado para ofrecer un token de autenticación de nueva generación basado en hardware. Esencialmente, usted será capaz de llevar su certificado de tarjeta inteligente en el chip TPM, junto con otros certificados digitales. El dispositivo es todo lo que necesita, sin necesidad de llevar tarjetas adicionales, mochilas o llaveros.
Las soluciones de confianza de hardware no son perfectamente seguras, como mostraron la congelación de memoria y los ataques microscópicos de electrón de Princeton, pero solo vencieron a soluciones de protección de software. Los esquemas de protección de hardware solo van a mejorar. Muy pronto, todos los dispositivos de computadora tendrán una solución de protección de hardware/software ejecutándose. (Roger A. Grimes).
6. Reemplazos de JavaScript
Nadie vaya allí nunca más, hay demasiada gente", dijo una vez Yogi Berra sobre un restaurante famoso,  Lo mismo está pasando con JavaScript. El idioma puede ser el código más ejecutado en el planeta, gracias a su posición como base para páginas web. Si esto no fuera suficiente, su dominio puede crecer más fuerte si herramientas basadas en el servidor como Node.js ganan tracción.
A pesar de todo el éxito de JavaScript, todo el mundo se está cambiando a lo siguiente. Algunos quieren construir nuevos lenguajes que corrijan todos los problemas con JavaScript, y otros simplemente están tratando de traducir su código en JavaScript para poder fingir que no lo usan.
La traducción del código está de moda. Web Toolkit de Google traduce Java en JavaScript, por lo que el desarrollador solo debe ingresar código Java correctamente escrito. Continúa mejorando, y Google lo ha integrado directamente con su nube App Engine para que pueda implementarlo con un solo botón.
Algunas de las traducciones son puramente cosméticas. Los programadores que escriben las instrucciones en CoffeeScript no tendrán que preocuparse mucho de la puntuación que hace que JavaScript se vea como de la vieja escuela. El compilador cruzado amablemente la insertará antes de que se ejecute.
Otras traducciones son más ambiciosas. Google recientemente anunció Dart, un idioma que al parecer resolverá muchas de las limitaciones que el equipo de desarrollo cree que hacen de JavaScript un dolor de cabeza. Hay clases, interfases, y otros mecanismos útiles para poner muros entre el código, una característica esencial para grandes proyectos de software. Detallar el tipo de datos contenidos en una variable ahora es posible, pero es solo opcional. Los amantes de Dart dicen que con el tiempo quisieran reemplazar JavaScript, pero por el momento quieren obtener un punto de apoyo, proporcionando una manera de traducir Dart en JavaScript. En otras palabras, quieren reemplazar JavaScript haciendo que JavaScript sea el núcleo de su plan. (Peter Wayner).
5. Almacenamiento distribuido por niveles
La memoria flash NAND -el material del que están hechas las unidades de estado sólido- es hasta mil veces más rápida que el almacenamiento en disco, y muchas veces más barata que las DRAM. La memoria flash es el producto de almacenamiento más popular, y lo será aún más cuando el software de gestión de almacenamiento alcance el potencial de flash en el centro de datos.
La especial combinación de alta velocidad y bajo costo de las memorias flash hacen que sean una excelente opción para la caché del lado del servidor, donde sustituyen a la cara DRAM, y es la elección natural para el almacenamiento de un nivel en redes SAN, donde sustituyen a los discos más lentos. Con el costo de flash cayendo constantemente y la capacidad de las SSD cada vez más en aumento, los días de las unidades de disco en los servidores y redes SAN parecen estar contados.
La mejor parte: Tener memoria flash en los servidores introduce una posibilidad que simplemente no era práctica con el disco -llamémosle, la gestión del lado del servidor de almacenamiento como una extensión de la red SAN. En esencia, la memoria flash del lado del servidor se convierte en el nivel más alto en la agrupación de almacenamiento SAN, sobre la base de la inteligencia dentro de la SAN para almacenar el acceso con más frecuencia o más I/O intensivas de datos más cercanos a la aplicación. Es como el almacenamiento en caché, pero más inteligente y más rentable.
Las enormes ventajas de rendimiento de la memoria flash han hecho que los niveles automáticos dentro de la SAN sean más convincentes que nunca. Todos los principales proveedores SAN ahora ofrecen sistemas de almacenamiento que combinan unidades de estado sólido, discos duros, y el software que dinámicamente migra los datos más "calientes" hacia las unidades más rápidas de la caja. El siguiente paso será superar la latencia introducida por la distancia entre SAN y los servidores. La velocidad de flash y el software de niveles automáticos a nivel de bloques -que opera en trozos tan finos como kilobytes o megabytes- se combinan para cerrar este último tramo.
A diferencia de la caché tradicional, que requiere la duplicación de los recursos de almacenamiento y escrituras basadas en el almacenamiento de back-end, el escalonamiento de almacenamiento distribuido promete tanto un mayor rendimiento de aplicaciones como reducir los costos de almacenamiento. El servidor posee los datos y la mayor parte del procesamiento de I/O, reduciendo los requerimientos de rendimiento de SAN y estirando su dólar de SAN.
El precio de estos beneficios es, por lo general, el aumento de la complejidad. Vamos a aprender más acerca de la promesa y los desafíos de almacenamiento distribuido por niveles como Project Lightning de EMC y otras iniciativas que salgan a la luz. (Doug Dineley).
4. Apache Hadoop
Hace dos años elegimos MapReduce como la empresa emergente de tecnología más importante, sobre todo porque prometió algo totalmente nuevo: el análisis de grandes cantidades de datos no estructurada (o semi-estructurados), como archivos de registro y clickstreams Web, utilizando hardware comercial y/o servicios de nube pública. En los últimos dos años, Apache Hadoop, la implementación líder de código abierto de MapReduce, ha encontrado su camino en productos y servicios ofrecidos por Amazon, EMC, IBM, Informatica, Microsoft, NetApp, Oracle y SAP -por no hablar de las nuevas empresas.
Hadoop abre un nuevo camino para que las empresas implementen clústeres de servidores para que guarden y compriman muchos terabytes de datos no estructurados -solo para descubrir patrones interesantes a explorar, en lugar de comenzar con objetivos oficiales de inteligencia de negocios. Pero hay que recordar que Hadoop es básicamente una plataforma de software en la parte superior de un sistema de archivos distribuido. Se deben escribir programas para procesar los trabajos de Hadoop, los desarrolladores necesitan comprender la estructura de Hadoop, y los analistas de datos se enfrentan a una curva de aprendizaje en la determinación de cómo utilizar Hadoop con eficacia.
Al principio, se desarrollaron herramientas para que los desarrolladores puedan hacer explotar Hadoop de una manera más fácil. Apache Hive le proporciona a los programadores de SQL un lenguaje familiar-SQL llamado HiveQL para consultas ad hoc y análisis de datos grandes. Y Apache Pig ofrece un lenguaje de alto nivel para la creación de programas de análisis de datos que son paralelos en su naturaleza, que a menudo es un requisito para el procesamiento de trabajos de gran tamaño.
IBM fue uno de los primeros en ofrecer herramientas en la parte superior de Hadoop que permiten que los analistas extraigan valor casi de inmediato. Su suite de InfoSphere BigInsights incluye BigSheets, que permite que los usuarios puedan explorar datos y crear puestos de trabajo de procesamiento sin necesidad de escribir código, todo ello utilizando una interfase spreadsheetlike.
Y las soluciones de Hadoop de parte de las nuevas empresas están apareciendo por todas partes. Cloudera, Hortonworks, y MAPR combinan sus propios distros Hadoop con herramientas de gestión orientadas hacia la empresa. Karmasphere Studio es un IDE especializado que permite a los desarrolladores crear prototipos, desarrollar, depurar y monitorear trabajos Hadoop, mientras que Karmasphere Analyst es una herramienta GUI que permite a los analistas de datos generar consultas SQL para conjuntos de datos hadoop, y ver el resultado en tablas y gráficos. Otra empresa nueva, Datameer, ofrece Datameer Analytic Solution, que también tiene una interfase de usuario al estilo de una hoja de cálculo.
¿A dónde conducirá todo esto? A medida que proliferen las soluciones Hadoop, las empresas tendrán acceso a una visión sin precedentes derivada de los datos no estructurados -con el fin de predecir el comportamiento de los clientes web, flujos de trabajo de optimización, y con la ayuda de herramientas de visualización de datos, descubrir patrones en todo, desde las historias clínicas hasta búsquedas de términos comunes. Lo mejor de la nueva ola de análisis de Hadoop es que recién estamos empezando a descubrir a dónde nos puede conducir. (Eric Knorr).
3. Sincronización avanzada
Apple y Microsoft pueden tener estrategias muy diferentes, pero están de acuerdo en una cosa: Es hora de decir adiós a los entornos de usuario único, donde cada PC u otro dispositivo es una isla separada del resto del mundo de la informática del usuario. De hecho, ambas compañías se están moviendo hacia un tejido en la nube de actividades de los usuarios repartidos en los dispositivos y aplicaciones.
En octubre, el iOS 5 de Apple debutó junto a icloud, un servicio de sincronización basado en la nube que mantiene sus favoritos, documentos, fotos, y datos de "valor clave" (como la información de estado) sincronizados en todos sus dispositivos iOS, Mac y -en menor medida- PC con Windows. El próximo Windows 8 de Microsoft lleva el concepto aún más lejos, manteniendo sincronizados no solo los datos, sino también el estado de las aplicaciones a través de PC y tablets Windows 8 y, probablemente, los teléfonos inteligentes Windows Phone; así si toma un dispositivo, así haya estado trabajando en otro, estará listo para que continúe con su actividad.
Este nuevo comportamiento va a cambiar mucho la forma de trabajar en las computadoras, pues podría darle a las aplicaciones una dramática nueva utilidad.
Los primeros usuarios de iCloud se acostumbraron rápidamente a tener sus documentos disponibles en cualquier dispositivo que tengan a la mano, por ejemplo. Eso permite copias de seguridad automáticas, por supuesto, pero también crea una expectativa de poder trabajar en cualquier cosa en cualquier lugar. Windows 8 va más allá, permitiéndole continuar desde donde dejó en un documento o una tarea.
Imagine una aplicación de gestión de viajes que se encargue de sus gastos, pasajes, y el itinerario a través de sus dispositivos -no copiando y pegando información de una fuente a otra. Es fácil imaginar que su smartphone sea su CPU, la sincronización de sus datos y otros recursos a la mano, tales como almacenamiento en red, un teclado local, un monitor local y una red cercana, así como la transmisión de las tareas entre tablets y PC cuando se mueve entre esos dispositivos. Ese es el tipo de movilidad sin fisuras que podemos empezar a imaginar con estas capacidades orientadas a la sincronización en el sistema operativo y en las aplicaciones.
Al trabajar de esta manera, la noción de enviarse por correo electrónico sus propios documentos, la copia de archivos entre computadoras, y la administración manual de su contenido, parece pasado de moda. Cuando une esa sincronización automática de datos y metadatos con el hecho de que el contexto, como la ubicación, los métodos de entrada disponibles, las limitaciones de la presentación, el movimiento, el acceso a Internet, y los datos basados en el sensor, se obtiene una verdadera computación centrada en el usuario.
El modelo de computación de la "tela de sincronización" tiene profundas implicaciones para las aplicaciones, los modelos de seguridad, y otros enfoques de la tecnología con los que todos hemos estado a gusto. El paradigma de la tela puede finalmente deshacerse de la noción del punto final que ha aquejado a la seguridad informática desde que comenzó la tendencia del trabajo en el hogar y de la computadora portátil, obligando a una mejor aproximación y autenticación de la gestión de identidades en un mundo donde el dispositivo es una variable, no una constante, como lo fue en el apogeo de la PC de la oficina.
Luego está el tema de la experiencia del usuario y la necesidad de aplicaciones y servicios de back-end para ajustar a medida que el usuario se mueve entre el tejido de los dispositivos. La sensibilidad al contexto debe ser integrada, por lo que la aplicación se ajusta a medida que el usuario cambia de dispositivos. Sin embargo, esa sensibilidad también abre nuevas posibilidades para las aplicaciones que los desarrolladores recién están empezando a imaginar.
Si eso suena como una versión de ciencia ficción de la nube, lo es. Pero así como muchas otras fantasías de ciencia ficción se han convertido en realidad, también lo es la noción de un tejido de computación que podemos aprovechar. iCloud y Windows 8 no son más que los primeros ejemplos, los primeros. (Galen Gruman).
2. Redes definidas por software
Al igual que los antiguos arrecifes de coral, las redes de los centros de datos han crecido y se han calcificado lenta e inexorablemente en el tiempo. Mientras que los servidores y el almacenamiento se han beneficiado de las abstracciones de software que soportan la gestión dinámica, las redes han mantenido el hardware fijo y estático. Casi una virtud durante décadas, su resistencia al cambio se ha convertido en un importante obstáculo en el camino hacia la cloud computing.
La tecnología que promete eliminar ese obstáculo es el networking definido por software (SDN). SDN cubre una capa de software sobre el switch y el hardware del router que sirve como un plano de control de gestión centralizada y una plataforma para la innovación. SDN no es la virtualización de la red, a pesar de que la virtualización de la red será, sin duda uno de sus derivados. Por el contrario, SDN es una forma de "programar la red" -es decir, que permite a los proveedores de nubes y a los ISV, la posibilidad de construir nuevas capacidades de red que el resto de nosotros podemos extraer.
El ejemplo más claro de hoy es OpenFlow SDN, pero Quantum de OpenStack, QFabric de Juniper, las API virtuales de red de VMware, y ProgrammableFlow de NEC también adoptan un enfoque SDN. En el caso de OpenFlow, la capa de programación de la red es un protocolo abierto que es apoyado por un número creciente de proveedores de hardware de red. Un punto clave de venta es que OpenFlow no requiere cambios en el hardware de conmutación, ni requiere que todo el tráfico pase a través del switch sea administrado a través del protocolo OpenFlow. Está diseñado para trabajar dentro de las infraestructuras de red existentes.
OpenFlow es la creación de los investigadores universitarios que querían una forma de experimentar con nuevos protocolos de red en redes de producción grande, y apareció por primera vez en el laboratorio para superar los retos que plantea la creación de redes mediante la ejecución de enormes clusters de procesamiento de grandes volúmenes de datos en la nube pública. El siguiente orden del negocio será la solución de los problemas planteados por la virtualización a gran escala y la multi latencia en las nubes públicas y privadas.
OpenFlow todavía está emergiendo, su funcionalidad todavía es limitada, y se necesitará más tiempo antes de que sus objetivos estén claramente definidos. El consorcio detrás de OpenFlow, la Open Networking Foundation, tiene menos de un año de edad, pero cuenta con Facebook, Google, Microsoft, Yahoo, Cisco Systems, Juniper Networks, Hewlett-Packard, Citrix Systems, Dell, IBM, NEC, y VMware como miembros. Todas estas empresas están apostando por la creación de redes definidas por software para hacer que el aprovisionamiento y la gestión de redes en los centros de datos y nubes del mañana sea más flexible y dinámica, que la gestión de máquinas virtuales en los grupos de virtualización de la actualidad. (Doug Dineley).
1. Orquestación de nube privada
El viejo método de dedicar infraestructura y administradores a proyectos individuales nos está matando, pues resulta en la capacidad subutilizada, altos gastos administrativos y un dilatado ciclo del proyecto. Una solución es juntar cómputo, almacenamiento y recursos de red en una nube privada -y mover a TI hacia arquitecturas compartidas más ágil y eficientes.
Con una nube privada, los administradores de TI pueden pedir prestadas tecnologías y arquitecturas promovidas por los proveedores de nubes públicas y aplicarlas a su propio centro de datos. Estas nubes tienden a tener muchas partes móviles, incluyendo gestión de la virtualización, sistemas de medición y de cargo, configuración automática, y el aprovisionamiento de auto servicio.
En la actualidad, estas tecnologías tienden a ser distribuidas en diversos productos y soluciones. Pero uno en particular ha cobrado impulso sorprendente durante el año pasado. Se trata de un proyecto de código abierto conocido como OpenStack, que ofrece un conjunto básico de servicios de orquestación en la nube: la administración de máquinas virtuales, almacenamiento de objetos y servicios de imagen.
Llamándose a sí mismo como un "sistema operativo cloud", OpenStack fue desarrollado inicialmente por Rackspace y la NASA, pero sus planes por salirse del proyecto como una fundación independiente se detallaron el mes pasado. En la actualidad, reclama más de 138 empresas participantes, incluyendo AMD, Cisco, Citrix, Dell, F5, HP, Intel, NEC, y un grupo de nuevas empresas de nubes. De acuerdo con OpenStack, capas de identidad y auto servicio se incluirán en el próximo lanzamiento en el 2012. Además, varios fabricantes están compitiendo para ofrecer versiones comercializadas de OpenStack, desde Citrix (con su proyecto de Olympus) hasta los vendedores emergentes Internap, Nebula, y Piston Cloud Computing.
El competidor más conocido de OpenStack es Eucalyptus, que básicamente es una aplicación de nube privada de Amazon Web Services. La interoperabilidad de Amazon es más profunda, porque la pila de Eucalyptus incluye una capa que imita la API de Amazon. Puede mover cargas de trabajo de Amazon EC2 hacia Eucalyptus, siempre y cuando no se tropiece con algunas diferencias sutiles entre los dos. Eucalyptus también viene en una versión de código abierto.
Los paquetes de herramientas de nube privada están apareciendo en todas las capas de la pila. Puppet, para tomar un ejemplo a seguir, es un marco de gestión de la configuración diseñado para automatizar casi cualquier tarea repetible en el centro de datos. Puppet puede crear instalaciones nuevas y monitorizar los nodos existentes, eliminar las imágenes del sistema, así como actualizarlos y reconfigurarlos, y reiniciar sus servicios -todo sin supervisión. Puppet Labs, desarrollador de Puppet, está asociado con Eucalyptus y Open Stack.
Es fácil ser cínico sobre cualquier grupo de tecnología al que se le aplica el término "nube". Pero nadie pone en duda los beneficios de la virtualización a gran escala y otros sistemas, tales como la convergencia de redes, que agrupan los recursos para mayores economías de escala. Estos cambios de paradigma demandan nuevas formas de trabajo -y la colección emergente de software de orquestación de nube proporciona los medios. (Eric Knorr).
InfoWorld (EE.UU.)