Llegamos a ustedes gracias a:



Evento

Nube de CIOS

[27/04/2010] Son pocas las ocasiones en las que tantos profesionales de alto nivel del mundo TI se reúnen en un solo evento. La sala del Hotel Marriott rebozaba la mañana del jueves 22 de un nutrido grupo de ejecutivos que ansiosos esperaban el inicio del foro. Fue todo un día de exposiciones, casos de éxito y de un panel, pero sobre todo de tener la posibilidad de absolver inquietudes.

La jornada fue extensa y por ello lo que a continuación leerá es tan solo un resumen de lo que entonces se dijo. Para obtener una información más detallada les animamos a observar los videos de las exposiciones que serán colgados hacia el fin de la semana junto con las presentaciones. Le aseguramos que disfrutará de este material.
Desde California
Bernard Golden, el llamado gurú de la nube, se conectó con Lima, vía videoconferencia, desde sus oficinas en Silicon Valley para romper fuegos y dar inicio a una jornada llena de valiosa información sobre la computación en la nube. Cloud Computing: what`s all the shouting about, fue el nombre de su exposición. Y el nombre de su presentación no fue casual.
What all the shouting about, que se podría traducir como ¿qué es esto de lo que tanto se habla? hace referencia a la falta de una definición de lo que es cloud computing y a los -quizás- muchos conceptos que se tienen de ella. Y ésta fue la primera tarea que el propio Golden se propuso. Para ello, ofreció un ejemplo de lo que las organizaciones están haciendo con ella y lo que están logrando con ella.
Golden compartió el ejemplo de la Fundación por la Educación de Silicon Valley. Esta institución se encarga de mejorar la educación para todos los estudiantes de esta localidad; la cual, por cierto, no solo se encuentra conformada por distritos de gran poder adquisitivo sino, por otros de menores recursos que son el objetivo de la Fundación.
El foco de la organización son los cursos de ciencia, tecnología, ingeniería y matemáticas y por ello recibe en gran medida financiamiento de las compañías de alta tecnología que conviven en la zona.
Por otro lado, los colegios de la zona basan su sistema educativo en unos planes de lecciones que son determinados por lo profesores. Estos planes son documentos en papel que los docentes guardan con ellos y en los que se especifica qué enseñar y qué recursos utilizar para ello.
Lamentablemente, estos planes de lecciones han quedado desactualizados. En un mundo en el que los estudiantes se interrelacionan a través de proyectos y se manifiestan a través de multimedios, los documentos escritos a mano de los profesores ya no tenían lugar.
Es por ello que las escuelas han asumido un sistema en el que los profesores suben sus planes de lecciones y las comparten con sus colegas. Los profesores hacen log in, pueden tomar esos planes de lecciones y usarlos, e incluso modificarlos. El éxito del sistema llamó la atención de la Fundación y ésta se dio cuenta que era necesario asegurar la continuidad del mismo; es decir, que éste no se cayera porque de hacerlo, los profesores no podrían acceder a la información.
Al revisar la infraestructura sobre la cual se basaba este sistema, la Fundación se dio cuenta que ésta se basaba en un solo servidor en un centro de datos y si éste caída tomaría mucho tiempo resolver el problema. ¿Qué hacer? Se decidió tener hardware redundante, usar virtualización, tener failover. Pero todo esto implicaba adquirir más hardware, lo cual era complicado para una entidad sin fines de lucro. Otra alternativa fue utilizar la cloud computing: subirlo a Amazon y utilizar su hosting, y eso fue lo que se hizo. Adicionalmente, también se preparó un plan para expandir el sistema a medida que se avanzara.
Con ese paso se lograron algunos ahorros de tipo financiero. De hecho, se estima que se ahorró hasta un 50% por utilizar los servicios web de Amazon y entrar en la nube. Además, al hacer esto se protegió al sistema contra los problemas que se presentan en el hardware. Por ende se pasó a un sistema que les permitió ahorrar costos y, a su vez, era más robusto.
Esto les da una idea real de cómo se puede aplicar la cloud computing. Se pudo incrementar la robustez de la aplicación, se pudo mejorar los beneficios financieros en torno a los costos de correr una aplicación, y se pudo incrementar la capacidad de escalar hacia arriba y hacia abajo de acuerdo a las necesidades de la aplicación, sostuvo Golden.
Pero ¿qué es lo que compone la computación en la nube? La definición del Instituto Nacional de Ciencia y Tecnología de Estados Unidos identifica cinco características.
La primera es el autoservicio en demanda. Esto significa que la gente que usa los recursos puede tener acceso directo a lo que necesita, sin necesidad de llamar o esperar a alguien. De cierta manera, Amazon inspiró todo esto al vender libros vía web que el propio usuario buscaba e identificaba. Esa es la misma visión que se utiliza para los recursos de cómputo.
La segunda es el acceso amplio a la red. Esto implica que uno puede llegar a los recursos desde cualquier lugar, no es necesario encontrarse en un centro de datos; ello se puede hacer a través de Internet o de una VPN y desde muchos tipos de dispositivos, como una PC de oficina o una laptop en la casa, e incluso desde un teléfono celular.
La tercera es el pooling o la reunión de recursos. Esta característica está dada por la capacidad de compartir los recursos de cómputo entre distintas organizaciones, de tal manera que no hay problemas con las caídas de las máquinas o con su capacidad. Esta característica permite una mejor utilización del hardware y una mayor dinámica en la escalabilidad del sistema.
La cuarta característica es la elasticidad rápida. Esto significa que si uno requiere de más recursos éstos se encontrarán disponibles de manera más rápida, sin necesidad de tener una idea de las futuras necesidades. Así uno puede tener un gran pico -que es un requerimiento no programado ni estimable- y poder atenderlo. Igualmente esta característica sirve para atender los cambios en los negocios, los cuales también se caracterizan por su velocidad y por su importancia. Posteriormente, cuando pasa el pico, se pueden dejar nuevamente en el pool de recursos y se encuentren disponibles para otra persona.
Camino a la nube
La segunda exposición de la mañana también se dio vía videoconferencia. En esta oportunidad se trató de Fernando Rodríguez, gerente de desarrollo de negocios para Data Center de Cisco Systems quien desarrolló el tema Centros de datos de siguiente generación: camino a la computación en nube.
Rodríguez compartió su visión de computación en la nube, y comenzó con la definición que manejan de ella en su organización. Desde su perspectiva, la computación en la nube es el futuro de los modelos de computación a los que estamos acostumbrados. Y para comprender esto es necesario recordar algunos de los hitos que marcaron las etapas por las cuales han pasado los sistemas TI en las empresas.
Los años 60 y 70 era la época de los mainframes. Toda la información se encontraba concentrada en un gran equipo que se conectaba con varias terminales tontas para distribuir esa información. Cuando luego hicieron su aparición las primeras minicomputadoras la inteligencia se distribuyó un poco y ya no se tenían terminales tan tontas. Este modelo fue creciendo más hasta que se llegó a la arquitectura cliente/servidor, que se modernizó recientemente con la plataforma web.
Sin embargo, a pesar de todos estos avances, Rodríguez señala que el verdadero habilitador de la cloud computing es la virtualización.
Creemos que la virtualización está cambiando completamente la forma en que las empresas operan sus sistemas de TI. Y cuando hablamos de virtualización no solo hablamos de virtualización del sistema operativo sino de todos los componentes que de una u otra forma tocan algún servicio de TI de la compañía, y el desligar el hardware del software es el que otorga una serie de ventajas que normalmente se asocian con la computación en la nube, sostuvo el ejecutivo.
Y por virtualización se debe comprender un concepto más amplio: permitir a cualquier dispositivo acceder a cualquier información en cualquier momento. Es aquí donde se enmarca la visión de cloud.
Un dato curioso que resaltó Rodríguez es que al utilizar el buscador de Google y su herramienta de análisis de tendencias se puede apreciar que el interés de las personas por la virtualización ha ido en crecimiento, pero lentamente. Mientras, las búsquedas del término cloud computing se han incrementando casi exponencialmente, a pesar de que la segunda se basa en la primera.
Pero entonces ¿qué caracteriza a la cloud computing? Para Rodríguez son dos características: servicios bajo demanda y escalabilidad o elasticidad. El primero se entiende bajo el modelo de servicio público -pago por lo que consumo-, mientras que el segundo implica crecer cuando sea necesario pero también reducirse cuando se necesite. Este es el foco principal para definir la computación en la nube.
En base a ello se pueden definir algunos modelos de servicio que se utilizan en la actualidad. El primero de ellos es el de software como servicio (SaaS, por su siglas en inglés); es decir, si se necesita de alguna aplicación en particular simplemente se solicita. El ejemplo clásico es el servicio ofrecido por Salesforce, donde se puede obtener una herramienta CRM que se ofrece a través de la nube y se utiliza solo como servicio. Este modelo ha sido muy exitoso y se ha visto su adopción en empresas pequeñas, medianas y grandes. Incluso Cisco tiene todo su sistema de CRM basado en Salesforce.com, siendo una empresa de más de 75 mil empleados.
Pero no es el único modelo, también se puede hablar de la plataforma como servicio (PaaS, por sus siglas en inglés). Este es un modelo muy utilizado por desarrolladores de aplicaciones en donde a través de la nube se accede a los recursos para desarrollar una aplicación a medida que éstos se vayan necesitando.
Un tercer modelo es el de la infraestructura como servicio (IaaS, por sus siglas en inglés). Este modelo se refiere a la infraestructura de cómputo, de almacenamiento, de red, de seguridad; en general, la infraestructura que va a tener disponible la empresa para poder correr sus aplicaciones en la nube.
Pero ¿qué es la nube?, se preguntó Rodríguez. Y señaló que muchas veces se tiende a pensar en la nube pública cuando se habla de nube. El resultado es que se tiende a pensar en la cloud computing como computación en Internet. Pero la verdad es que los modelos de cloud computing funcionan incluso bajo otros ambientes como las nubes privadas o nubes híbridas, donde se tiene ambientes públicos y privados, e incluso nubes donde se puede tener ciertas comunidades trabajando de forma coordinada.
Y, por su puesto, el lugar de inicio para todas las estrategias que tomen en cuenta estos conceptos es el data center. En él, las empresas pueden tener corriendo las aplicaciones que requieren; es más, éstos ambientes pueden ser también clasificados como data centers privados y data centers públicos. ¿Suena como a nube privada y nube pública? Sí lo hace, y esto ocurre porque entre un concepto y el otro, existe una palabra de diferencia (nube=data center) que se desvanece al momento que entra en juego la virtualización.
Al momento de aplicar virtualización ya podemos hablar de nube así sea en las cuatro paredes de mi propio data center, enfatiza Rodríguez, donde tengo diferentes departamentos solicitando distintos niveles de recursos para correr sus aplicaciones.
Igualmente, cuando un proveedor de data center hace lo mismo, podemos ya hablar de una nube pública pues ofrece esta infraestructura a varias empresas, a pesar de no estar hablando específicamente de Internet.
Ese salto a la virtualización da pie a que se pueda hablar de una tercera opción que se configuraría en el siguiente paso de la evolución en el cloud computing: la nube virtual privada. Es decir, tener la misma nube privada de la que se hablaba antes en el data center y una nube pública ofrecida por un tercero, con una tercera nube en medio que permita hacer crecer los recursos de manera elástica -de la nube privada hacia la pública o viceversa- y trabajar de una forma federada con los recursos de la organización
La estrategia de Big Blue
La gran compañía del logo azul no podía estar ausente. Percy Vier, cloud computing executive leader de América Latina de IBM, fue el encargado de representar a su compañía a través de la presentación Estrategia IBM de Cloud Computing en la tercera presentación de la mañana.
Vier inició su disertación señalando que el tránsito hacia la cloud computing va a ser prolongado, y que no necesariamente todo lo que se tenga en las empresas va a ir hacia cloud. Pero lo que sí es importante es que la infraestructura -que debe ser sólida- se encuentre bien comprendida.
En la actualidad las empresas ya se encuentran utilizando servicios de nube, como el de Amazon, pero generalmente para aplicaciones no críticas. Aún así, y de cara al futuro, es necesario que la infraestructura que sustenta a la nube sea sólida y que las empresas conozcan esta infraestructura.
La infraestructura con la que se cuenta hoy en día no está preparada para lo que se viene. Muchas empresas pierden mucho dinero porque la infraestructura no está preparada. Se dice en la actualidad que en las empresas, en la parte de sistemas, 70 centavos de cada dólar se utiliza en mantenimiento, que está creciendo 56% el uso de almacenamiento. Por lo tanto tenemos que buscar una nueva solución para hacer las cosas, porque tenemos que comenzar a cambiar, señaló el ejecutivo.
En este cambio se puede sentir que las empresas enfrentan muchas presiones del lado de los costos. El entorno exige que se haga muchas más cosas con lo que ya se tiene en la actualidad. Adicionalmente, las empresas están creciendo en cantidad de servicios y personal que se tiene que atender. Por tanto, es importante que se entienda que el concepto de cloud sirve para enfrentar estos problemas, para bajar los costos y utilizar y aprovechar mucha más infraestructura (nubes públicas y privadas en la empresa).
La gente ahora está buscando en la nube algunos principios. El primero de ellos es el ahorro. Una solución cloud se justifica siempre y cuando genere ahorro. Ciertamente el ahorro es muy importante y fundamental, pero de acuerdo a Vier, está ganando terreno también un segundo principio: la agilidad. Un ejemplo de esto es lo que hizo IBM con Sears. Dependiendo del clima de Estados Unidos se lanzan diferentes tipos de campaña, lo que significa que se pueden lanzar en paralelo cinco o seis campañas. Pero en los meses previos a Navidad se triplica el requerimiento de servidores que tiene Sears.
Lo que se hizo con esta firma fue crear una cloud pública asociada a sus servidores de cloud privados, de tal forma que pudieran triplicar su capacidad de cómputo para los requerimientos de esos tres meses. Ese es el tipo de conceptos que se manejan en la actualidad con la cloud computing.
Vier señaló que a nivel local la minera Hochschild, cuando tuvo que pasar su SAP de un release a otro tuvieron el doble de capacidad de computación durante un periodo. Esto se logró duplicando la capacidad del sistema de cloud con el que cuenta la compañía.
Entonces el concepto de cloud se entiende, de acuerdo a Vier, como provisionar los recursos como servicio de una forma dinámica y escalable, y normalmente virtualizable.
Yo sí no concuerdo en que la virtualización sea el único driver de la cloud. Creo que la virtualización es un gran driver de la cloud, pero no es el único, sostuvo el ejecutivo.
Desde el punto de vista del usuario la cloud proporciona facilidad de uso y una flexibilidad enorme. Desde el punto de vista de TI la utilización de recursos es importante pero también lo es su administración -a una escala muy grande-, y su provisión en forma elástica (que pueda crecer pero también reducirse).
Y esto se logra gracias a la virtualización. Vier señaló casos en los cuales conocía a empresas con 50 servidores y que luego de pasar por un proceso de virtualización e implementación de cloud se bajó a 7 u 8, con mejores niveles de satisfacción. Además el nivel de cada uno de los servidores se incrementó de 10% a 90%.
A través de la automatización -que tiene que ser hecho por un software- se administra los recursos de tal forma que sean flexibles y puedan ser provisionados cuando sean requeridos. Y a través de la estandarización se puede crear imágenes estándar con las cuales se puede servir mejor a las personas.
Con este tipo de infraestructura es como se crea una infraestructura cloud que puede ser privada o pública.
Y de hecho, de acuerdo a los estudios de IBM, los CIO generalmente desean empezar con una implementación privada porque la infraestructura no está lista, porque no se ve que un Amazon se encuentre enterprise ready, porque la cloud va a cambiar la tecnología en los próximos 10 años, pero aún no desean arriesgarse a tener algunas aplicaciones en una nube pública.
La promesa de la nube
Julián Cerón, customer solutions architect de CA, tuvo a su cargo la primera exposición del segundo bloque de la mañana. Con su tema Cloud: más que una promesa una realidad, reinició la jornada matutina.
La gestión fue el tema central del speech de Cerón, pues es en este campo -afirmó el ejecutivo- en donde realmente la cloud computing se vuelve adulta.
Para comenzar Cerón señaló que no necesariamente, como señala Gartner, las empresas pueden comenzar a probar la nube con nubes privadas, existen otras alternativas como el SaaS, en donde las soluciones de CRM como la de Salesforce son un ejemplo claro. También afirmó, al igual que otros expositores, que la virtualización es un camino hacia la nube.
Sin embargo, antes de llegar ahí es necesario determinar cuáles son las preocupaciones fundamentales que tienen los CIO con respecto al tema. Y de acuerdo a un estudio que presentó Cerón, una de las principales preocupaciones de los ejecutivos de TI con respecto a la nube es la seguridad. En este campo, por ejemplo, algunos países tienen una regulación que no permiten que los datos de los clientes de una empresa estén fuera del país.
La disponibilidad es otro de los temas que los ejecutivos TI toman en cuenta al momento de decidir sobre la implementación de una nube. Aquí la principal preocupación que mostraron los ejecutivos fue cuál iba a ser el nivel de disponibilidad que podía ofrecer la nube. Y, finalmente, el otro tema que inquieta en este campo es el desempeño; es decir, la calidad del servicio. Y es precisamente en este último punto en donde CA tiene mucho que decir.
La estrategia de CA es única, pero tiene dos caras. Una de esas caras implica que CA es un habilitador de servicios en la nube, la empresa ofrece software para gestionar nubes. La otra cara de la compañía es que CA ofrece servicios en la modalidad on demand, sostuvo el ejecutivo.
Pero ¿por qué es importante gestionar la nube? Básicamente porque se requiere gestionar los servicios: ¿cómo saber que los proveedores de nube están cumpliendo con los niveles de servicios contratados? ¿En base solo a sus reportes? O si la empresa es la que ofrece los servicios ¿cómo comprobar a los receptores del servicio que han cumplido con los niveles de servicio? Por ello, la gestión de los niveles de servicio en los ambientes de nube es vital.
Otra de las herramientas es la automatización dinámica del servicio. De la misma forma en que nos llega el catálogo de una tienda por departamentos, las empresas pueden proporcionar a sus clientes internos -o externos- un catálogo de servicios desde el cual los clientes puedan, con toda flexibilidad, pedir los servicios que necesita.
La calidad del servicio es también una preocupación. Básicamente este punto tiene que ver con el desempeño y la confiabilidad del servicio; es necesario medir estas variables ya sea que se trate de un servicio que uno recibe o el que uno da, desde una nube interna o pública.
La seguridad del servicio fue otro de los puntos que tocó Cerón. Es necesario que en una ambiente de nube exista la seguridad, de que no haya pérdida de datos o fuga de datos, realizar un control de las identidades de las personas que van a acceder a las nubes internas y externas.
La otra cara de CA en la cloud computing está conformada por todas las soluciones que la compañía ofrecía bajo el modelo tradicional -on premise- y que ahora han pasado al modelo on demand.
Básicamente una de las tendencias es llevar a la nube la gestión de proyectos, es decir, de las soluciones que gestionan el ciclo de vida desde que surge una idea hasta que termina en un proyecto en la calle. ¿Para qué tener esto en servidores y bases de datos si se puede tener este tipo de soluciones bajo demanda?
Y como ésta, CA está lanzando en los próximos días versiones on demand de sus otros productos.
Plataforma dinámica
En un correcto portuñol, Michel Sader de Microsoft Latino América expuso su presentación Adoptando y administrando una plataforma dinámica Cloud Computing.
La nube es algo que esta cambiando la manera de hacer negocios. Es cuestión de tiempo, no es una cuestión de si se va para ahí sino cuándo se va para ahí. Y esta es una decisión en la que espero que pueda ayudar, sostuvo el ejecutivo.
De acuerdo a Sader, se habla mucho de reducir costos. De acuerdo a un estudio de Gartner de diciembre pasado, la reducción de costos era la primera prioridad que tenían los ejecutivos de TI en el 2009, pero en la actualidad es la prioridad número 5.
La crisis ha acabo y la reducción de costos -una de las cualidades por la que la cloud computing es atractiva para las empresas- ya no es la prioridad. Sin embargo, no es la única cualidad.
En la TI tradicional, el área era responsable de los servicios estratégicos pero también de los llamados de commodities; y ahora TI no tiene tiempo de reaccionar de la manera que el negocio necesita ya que está gastando mucho tiempo en otras actividades, como el mantenimiento de la infraestructura.
La nube ofrece la oportunidad de que TI se concentre en los servicios estratégicos, es decir, en los servicios que van a ayudar a las compañías a diferenciarse de su competencia, mientras que los commodities como la mensajería se pueden trasladar a la nube.
Sader señala que no ve a la nube como una revolución sino como una solución. Por ejemplo, la arquitectura cliente/servidor no reemplazó a los mainframes sino que los complementó. De la misma manera, la cloud va a complementar a otras soluciones.
También se debe de tener en cuenta que la nube no es para todos. Hay países como Francia que no permiten que los datos del país salgan fuera de él. Las empresas no pueden usar fácilmente la nube en ese país. Otro ejemplo: en Estados Unidos existen requerimientos de seguridad que son específicos del gobierno estadounidense.
Otros sectores como la banca tienen un temor especial por los niveles de seguridad de la nube, aunque la nube puede ayudar con la infraestructura de cajeros automáticos. En base a todos estos ejemplos es que Sader señaló que la respuesta está en el medio. One size does not fit all.
Por otro lado, en la actualidad la capacidad de procesamiento y la tecnología está creciendo de una manera impresionante, y por ello es necesario apalancar el procesamiento distribuido. La nube puede ayudar en esto.
Entonces, para Microsoft también es importante soportar lo que denominan las tres pantallas: la PC, la Web y el celular. Y en América Latina en particular es muy importante el soporte a la PC. El modelo de la nube viene de Estados Unidos en donde la conectividad es barata y se puede comprar conectividad para crecer o bajar rápidamente, pero esto no es algo que se pueda encontrar en América Latina, y otras regiones.
Como resultado, las diferencias mandan en las posibilidades de cómo se va a utilizar la nube.
HP y su posición en la nube
El sexto y último expositor de la mañana fue Gustavo Pifarre, business development TS consulting de HP quien expuso también la estrategia de su compañía en la nube. Específicamente habló sobre cómo un CIO podría establecer su estrategia frente a la nube.
Pifarre comenzó su exposición meditando hasta qué punto se puede hablar en la nube de seguridad y disponibilidad sin hablar de la empresa. La tecnología se encuentra tan entramada con la empresa, que una disrupción en TI es una disrupción en el negocio.
Y por ello los cambios que se pueden apreciar en las empresas y en las áreas de TI es que esta estrecha relación entre tecnología y negocio, también significa que las oportunidades de tecnología también son oportunidades de negocio. Y es en ese contexto que se debe entender la cloud computing.
Con la nube no solo se puede reducir los costos y ser más eficiente sino que también proporciona nuevas herramientas al área de TI para colaborar con los objetivos de negocio.
Básicamente, la misión de un área de TI de una empresa es -que a partir de la estrategia de la empresa- desarrollar resultados que le permita tener una ventaja competitiva. Entonces ¿qué nuevos servicios nos plantea la nube?
Por el lado del aprovisionamiento de servicios, los departamentos de TI definen una cartera de servicios en la cual básicamente la decisión que deben tomar es cómo instrumentar esos servicios y es ahí en donde aparecen las alternativas como servicios internos, servicios hosteados o servicios en la nube.
Claramente esta es una problemática en donde la nube proporciona una nueva alternativa, sostuvo el ejecutivo. Sin embargo, dentro de las ventajas que ofrece la nube se encuentran algunas como la reducción de costos, disponibilidad o escalabilidad, que son características que el negocio pide para todos los servicios, independientemente de que sean contratados en la nube o internos, sostuvo el ejecutivo.
Ello, en buena cuenta, significa que la gente de negocio requiere de un servicio, independientemente de cómo éste sea instrumentado. En general, todos concuerdan en que las empresas cuentan con un conjunto de servicios provistos con distintos mecanismos; es decir, provistos en forma interna, o de un proveedor externo o mediante servicios en la nube compartidos entre varios clientes.
Esas son las opciones, pero HP quiere proponer una visión complementaria; es decir, ya que se tiene un nuevo paradigma lo siguiente es replantear lo que la compañía viene haciendo en base a lo que ofrece la nube.
Lo primero es la cadena de valor. Con los servicios ya construidos en la nube las empresas se pueden integrar mejor con sus proveedores y mejorar los procesos de negocios. Se puede integrar, a través de la nube, la información de los proveedores y utilizarla en los análisis que pasa si?, por ejemplo, si se incrementa la producción o las ventas en determinada cantidad ¿el proveedor es capaz de responder a esos requerimientos?
La cloud computing puede así en este campo otorgar rápidamente un valor a la compañía e incluso a los propios proveedores.
El panel
Luego de seis presentaciones académicas por parte de los representantes de las empresas proveedoras, era tiempo de escuchar al otro lado. Las empresas consumidoras de tecnología también aportaron su punto de vista con respecto al concepto de cloud computing, a la (poca o mucha) experiencia que tenían en su implementación y uso, y a las exposiciones que acababan de presenciar.
Para ello se conformó un panel compuesto por cuatro CIO de primer nivel. Ricardo Bustamante, gerente de la División de Sistemas y Organización del BCP; Tito Otero, gerente de Informática y Procesos de Ferreyros; Johnny García, gerente de Tecnología de la Información de Interbank; y Eugenio Kollmann, gerente corporativo de TI de Hochschild Mining, fueron los invitados en esta ocasión.
Tito Otero fue el comenzó a señalar sus apreciaciones. El CIO señaló que el título del evento -De la nube a la tierra- es justamente lo que hacen los CIO. Viene alguien de márketing o de alguna área de la empresa y nos dice lo último es la cloud computing, ¡entra en la cloud computing! Las soluciones parecen sencillas, pero no lo son tanto cuando se tienen que aterrizar de una manera operativa y económica, sostuvo Otero.
A pesar de ello, Otero señaló que Ferreyros está avanzando en esa dirección. La cloud computing se encuentra en los planes de la empresa a pesar de que aún no tienen experiencia en ella. Otero relató, sin embargo, que su empresa sí tiene una buena experiencia con virtualización y hosting (algunas aplicaciones las tienen en hosting), y esperan tenerla en la nube.
Desde su perspectiva todo lo dicho se puede definir como una infraestructura de servicios y en general, dado que los negocios siempre tienen que ver con la relación entre las personas, es conveniente evaluar en qué forma la nube puede aterrizarse con nuevos servicios que van desde la infraestructura hasta el propio manejo del negocio.
Al final todas las ofertas, como la de Salesforce, por ejemplo, van a terminar siendo servicios, sin llegar a convertirse en commodities, ya que van a encontrarse bastante involucrados con el propio negocio.
Como señaló uno de los expositores, en el tema de las comunicaciones la realidad peruana es muy diferente a la de Estados Unidos. Aquí aún persiste una diferencia muy importante entre las velocidades a las que se puede llegar en una LAN y en una WAN; la cual, a su vez, genera una gran diferencia en los costos en base a los cuales se toman las decisiones de qué hostear, qué se pone en la nube, y qué se deja en el data center.
Otero señaló también que revisando algunos conceptos puede decir que la cloud computing no es solo hardware, y no va a ser siempre más económico. En base a ello señaló a los CIO que su deber es comunicar al resto de la compañía que el ingreso a la nube es un proceso de mediano y largo plazo, y que el modelo híbrido (combinación de nube privada y pública) va a ser el que domine en los próximos 10 años.
Johnny García fue el segundo CIO en tomar la palabra. Nosotros como responsables TI de las empresas nos beneficiamos de la tecnología pero también somos facilitadores de la tecnología, entonces no solo se trata de reducir costos sino también de cómo dar una ventaja competitiva a nuestros negocios, señaló García, al inicio de su presentación.
El ejecutivo indicó que la computación en la nube es un estilo más de hacer las cosas. Complementa las otras alternativas y nos las va a reemplazar, cada una va a tener sus bondades, dependiendo de en qué negocio uno se encuentre y dependiendo del producto y el mercado objetivo.
García también sostuvo que considera que uno de los sectores que más rápidamente pueden aprovechar la nube son las Pymes -que son más del 95% de las empresas del país- ya que éstas pueden obtener resultados más rápidamente.
En una empresa grande hay que tener un poco más de cuidado. Definitivamente éstas tienen que utilizar las bondades de esta alternativa, pero debido a los temas de seguridad hay que tomar previsiones.
Un tema interesante que llamó la atención de García fue la posibilidad de realizar los cambios cuando el negocio lo requiera. Sin embargo, aún así considera que la nube no se encuentra madura sino que se encuentra en una evolución. Aquí sostuvo que sería conveniente que las empresas colaboren entre sí para establecer estándares.
Por otro lado, llamó la atención sobre el tema de los dispositivos, algo que no fue profundizado por los expositores. En la nueva Internet, las cosas van a estar comunicadas unas con otras. Ya en la actualidad se encuentran muchos dispositivos conectados a Internet y se espera que su número siga creciendo.
Eugenio Kollmann fue el tercero y comenzó preguntándose ¿Hay algo nuevo bajo el sol? El tema del cloud ya se encontraba presente hace 20 años con otro nombre, y ya se tenía computación con máquinas virtuales. Kollmann recuerda que a finales de los años 90 realizó una centralización de servidores Unix con el que logró un salto increíble para ese entonces. Pero ahora eso se denomina cloud.
Esa tendencia le permite ahora a las empresas tener la capacidad de reducir tiempos, reducir costos, otorgar valor al negocio. Pero ojo amigos, yo puedo tener mi nube dentro de mi empresa, o con un tercero, pero hay que pensar en el diseño y como se va a gestionar. Hay cosas que no se comentan como los costos de administración, sostuvo el ejecutivo.
El concepto se encuentra en proceso de maduración; la tecnología puede estar disponible pero hay que saber cómo crear. Así el rol de los responsables de TI es entender el potencial, entender la operación y como encaja dentro de la empresa. Hay que comprender cómo es que se va a reducir costos, como encaja dentro de los temas de seguridad de la firma.
Uno tiene que analizar toda la cadena de procesos de TI y buscar la renovación, es decir, ver cómo se puede obtener el máximo provecho de acuerdo a las necesidades de la empresa.
Kollmann señaló que su empresa utiliza la nube en forma masiva. Tienen un cloud computing privado, compartido con outsourcing que les da una gran versatilidad, tienen nubes privadas dentro de sus pequeños data centers. Pero también hubo problemas. Hay aplicaciones, por ejemplo, que tienen un tiempo de respuesta no conveniente, de acuerdo a las necesidades del usuario, que es quien manda.
Finalmente, Ricardo Bustamante señaló que cuando comenzó a enterarse de qué era la cloud computing llegó a la conclusión de que ya estaba haciendo cloud computing en muchas cosas. Y esto porque en ocasiones un conjunto de tecnologías se aglomeran, se le pone un nombre comercial -cloud computing es un nombre muy provocador- y se empieza a comercializar.
Y en ocasiones los conceptos son peligrosos porque comienzan a ser ofrecidos a personas que no pueden manejar bien esta información. Por ejemplo, mencionó que Amazon vende espacio en disco para almacenar información pero que si uno desea cargar un gigabyte de información -que no es mucho- tiene que pasar por una copia de información que dura toda una noche. Entonces hay que tomar en cuenta estas características.
En el mundo del retail la nube ya es conocida a través de servicios como Facebook y redes sociales similares. Pero en el mundo corporativo hay factores que se deben de tener en cuenta, y ahí entran a tallar los conocidos SLA.
Es muy provocador el concepto, pero hay que saber donde utilizarlo y hay que experimentarlo. Y creo que el mejor momento para hacerlo es internamente en la empresa, como por ejemplo en aprovisionamiento o en servidores virtuales, e incluso algunas cuentas de correo, sostuvo el ejecutivo.
El desempeño
La primera presentación de la tarde fue la realizada por Andrés Hurtado, director comercial para Latinoamérica de Riverbed. Con su presentación Unleashing Cloud Performance, se encargó de devolver al público al tema.
En las presentaciones se hacía una recurrente mención a la WAN, a la velocidad, y a que todo lo que se dijo que se podía hacer con la cloud dependía de que se tuviera el ancho de banda y la velocidad adecuada. Riverbed utilizó su tiempo para mostrar su tecnología y que podía hacer por este tema específico.
La WAN es la vida de la empresa y por ello es necesario que funcione bien y funcione rápido. Una empresa tiene varios elementos que pasan por una WAN y de lo que se encarga Riverbed es acelerar los elementos que pasan por la WAN. Es decir, una aplicación va a ser acelerada unas cinco a 10 veces de la velocidad normal de la WAN, con lo cual se está maximizando el uso de la misma, con la ventaja que lo mismo se puede hacer con los usuarios móviles de la empresa.
En la práctica lo que esto significa es que a la WAN se le está otorgando la misma velocidad que una LAN, algo que un usuario va a sentir de manera transparente.
Una de las funciones básicas de la aceleración es su trabajo sobre las aplicaciones. Cualquier aplicación -SAP, Oracle, y otras aplicaciones pesadas- se van a sentir como si estuviera en una LAN. Esto implica que se puede llegar a un ahorro de hasta un 80% en la utilización del ancho de banda, con lo cual se reduce la necesidad de ampliaciones en el futuro.
Los casos de éxito
En el evento no solo se presentó la opinión de los proveedores. También es importante que las empresas que utilizaron con éxito las soluciones que ellos proponen dieran testimonio de las ventajas y dificultades que implicó para sus clientes. Es por ello que como parte final del evento se presentó una serie de casos de éxito.
Así, Cisco Systems presentó el caso de Terramark; IBM el de la minera Ares de Hochschild Mining; Microsoft el de Coca-Cola Enterprises; Citrix el de Minera Yanacocha; y HP el del Ministerio de Defensa de Estados Unidos.
Los casos fueron en verdad interesantes y aleccionadores. Por ejemplo, en Minera Ares, productora de oro y plata, se pasó por diferentes etapas en la evolución de su infraestructura TI. Edward Alarcón N., gerente de producción TI, comentó que en el 2006 la empresa contaba con demasiados servidores en una infraestructura descentralizada, prácticamente en cada operación se contaba con un data center con diversos servidores.
Además, sus operaciones se encuentran a alturas superiores a los 4.800 metros y eso hace que los servidores y los diversos equipos no funcionen como se espera. Por ello han tenido incidentes de diversa magnitud en servidores, discos, y otros componentes que no trabajan adecuadamente a esa altura.
Dada la complejidad de la red, el soporte TI era bastante difícil; no solo por el tema de la altura sino también por la lejanía. El respaldo de la información no estaba muy organizado, había unidades en todas las operaciones y su administración era bastante difícil. Adicionalmente, la red de comunicaciones con la que se contaba era bastante básica, señaló Alarcón.
Producto de la salida de la compañía a cotización en la bolsa de Londres en el 2006 se realiza un due dilligence y ahí se identifica que el tema de TI debía ser mejorado, así como el tema de la seguridad de la información.
Alarcón indicó que en el 2007 se comenzó con la plataforma, mejorando la red de comunicaciones. Si no era óptima, la cloud no hubiera podido caminar. Por ello se firmó un contrato con Telefónica que proporcionó radioenlaces, enlaces satelitales y fibra óptica.
También se estandarizó el equipamiento de PC, laptops, servidores y se renovó un contrato de hosting con IBM. Se establecen algunas características como la rapidez para adaptarse a crecimientos futuros, cumplir con los estándares ISO 27001, y capacidad para crecer y reducir.
Antes del 2007 el servicio de hosting y housing estaba muy enfocado en el SAP, pero luego se llevó al data center de IBM todos los servidores operativos.
Otro de los casos de éxito fue el suministrado por la Minera Yanacocha. Raúl Rojas, Arquitecto de Servidores, comentó que el problema inicial que tuvieron que enfrentar era que los negocios y sus requerimientos eran cada vez más complejos. Por un lado tenían dispositivos como PC, laptops, teléfonos inteligentes, etc. que los usuarios utilizaban para acceder al sistema y tomar decisiones. Mientras que por otro tenían redes (corporativa, interna, externa, conexiones de casa, etc.) en diversos lugares que, junto con los dispositivos, se convertían en zonas vulnerables desde las cuales se podía acceder a información confidencial de la empresa. La seguridad era un tema a considerar.
Todo esto hacía que los recursos necesarios para administrar toda esta infraestructura se incrementasen. Pero además se tenía un portafolio de aplicaciones que se distribuía a través de estas redes y estos dispositivos.
El reto era que el gran numero de aplicaciones y la complejidad que tenían éstas (algunas dependían de otras) sufría de constantes cambios debido a la naturaleza del negocio, principalmente actualizaciones constantes. El problema era que las aplicaciones se encontraban instaladas para tres mil personas, y los cambios que se requerían en ellas se tenían que operar sobre todos estos usuarios. Hacer los cambios de manera manual e incluso automática, era un gran esfuerzo, señaló Rojas.
No se podía llegar al 100% de los equipos lo cual hacía que los tiempos y los costos de TI se incrementaran; además, eso ocasionaba que la imagen del departamento de TI (un activo intangible) no sea de lo mejor. Con el esquema de entrega de aplicaciones no se podía acceder a un nivel de servicio 24x7. Y, dado que algunas aplicaciones se encontraban fuera del país la latencia de la WAN era un tema que también se debía considerar, añadió.
Se decidió entonces por una tecnología que no solo brindara beneficios a TI, sino al negocio. Es así que se consolidó toda la infraestructura, se retiraron las aplicaciones instaladas de todo el parque de computadoras y toda la complejidad se trasladó al data center, y de esa forma ya no se tuvieron que preocupar de administrar las aplicaciones directamente en la computadora del usuario sino hacerlo en la plataforma de Citrix. Se pasó así de tener las aplicaciones instaladas en tres mil PC a tenerlas en un pool de servidores, que es mucho más fácil de administrar y controlar. Además, al usar la tecnología Citrix, se pudo hacer que los usuarios pudieran acceder desde distintos tipos de dispositivos.
Con estos ejemplos, y los otros casos de éxito que se presentaron durante la tarde se concluyó el foro CIO Perú – Common Perú sobre la cloud computing. Por su puesto, dada la cantidad de información y el nivel de la misma las dudas que se tenían sobre el tema se despejaron. La cloud dejó de ser una palabra rara para muchos CIO que asistieron al evento para convertirse en una opción de solución.
Fue nuestro segundo evento en menos de un año de existencia de CIO Perú (nuestro aniversario es en mayo), y les aseguramos que vendrán muchos más en el futuro. Si tiene algún tema de interés no dude en comunicarse con nosotros. Para ello hemos nacido.
Jose Antonio Trujillo, CIO Perú

COMENTARIOS
druiz.al   mié, 02-may-12

Excelente la conferencia denominada "Era Cloud", es muy importante saber que tecnologias vanguarddista podemos utilizar para solucionar los problemas actuales en cuanto TI, saludos...

druiz.al   mié, 02-may-12

Serian muy amables que las conferencias que promueven hagan llegar via videoconferencia,asi podemos ser incluidos a las distantas partes del nuestro pais Perú.


Leer más comentarios | Realizar un comentario