Llegamos a ustedes gracias a:



Reportajes y análisis

Microsoft In.nova: La inteligencia de negocios

[20/04/2012] La semana pasada se produjo uno de los eventos de tecnología que están adquiriendo notoriedad en la industria: Microsoft In.nova. La reunión, como en otras oportunidades, sirvió de marco para la presentación de dos de los más recientes lanzamientos de la empresa, en esta oportunidad el SQL Server 2012 y el System Center 2012.
Por supuesto, estos dos productos se trataron en profundidad junto con otros temas relativos al desarrollo de la industria TI. Así, también se expusieron otros tópicos como las TI como servicio, la computación en la nube y la inteligencia de negocios, además de contar con la participación de HP que mostró su enfoque para el SQL Server y de Sentinel, empresa cuyo director habló sobre la información como habilitadora del éxito de una empresa.
El inicio
La conferencia se inició con las palabras del director gerente general de Microsoft Perú, Guillermo Guzmán-Barrón. El ejecutivo fue el encargado de dar la bienvenida a los asistentes y reseñar el contenido de la reunión que se desarrollaría durante aquella mañana. Microsoft In.nova 2012 estaría compuesta por cuatro exposiciones centrales y por otras cuatro presentaciones dividas en dos tracks, luego del receso.
Luego de enumerar a los expositores y sus temas dio paso a la primera exposición de la mañana. Ésta estuvo a cargo de José Armando Hopkins, director gerente general de Sentinel Perú, quien desarrolló el tema La información como habilitador del éxito en su empresa.
Su exposición comenzó con una buena pregunta, ¿qué es un gerente de sistemas?
Había tres opciones en la pantalla: un técnico, un administrador o un vendedor. Hopkins sostuvo que cuando realiza esta pregunta entre los ejecutivos, siete de cada 10 afirman que consideran al gerente de sistemas como un técnico, el resto (30%) lo consideran un administrador. Nadie lo consideraba un vendedor.
Yo pienso que el gerente de sistemas es un revolucionario institucional, es una persona que está en las empresas para cambiar las empresas, para hacerlas mas eficientes, para que la información sea más útil, sostuvo el Hopkins.
Otro de los dilemas que afronta este puesto es qué enfoque debe utilizar para desarrollar su trabajo. ¿Debe ser un enfoque técnico, de usuario? Se preguntó el expositor. En realidad, sostuvo Hopkins, las prioridades deben encontrarse ligadas al objetivo del negocio.
Se debe saber cuáles son los principales drivers que mueven el accionar de la empresa, y desarrollar sistemas que enriquezcan la toma de decisiones en esas áreas claves.
Estas acciones tienen por objetivo lograr beneficios concretos, que deben ser medibles. Ciertamente, esto no es sencillo pero si uno tiene la intención de medirlo va a estar mucho más atento a lo que hace sea generador de resultados positivos para la organización.
Por otro lado, se debería observar las instituciones para ser capaces de generar para la empresa ventajas competitivas y diferenciales respecto de los competidores. Es decir, hacer de la empresa una institución cada vez más competitiva, y que las competencias generadas sean sostenibles en el tiempo, difíciles de ser copiadas rápidamente.
Entonces, para ser un buen gerente de sistemas es necesario pensar como un gerente general.
Si uno se pone el sombrero de gerente general, las decisiones que tome en su organización van a ser muchísimo más provechosas para la institución, sostuvo el expositor.
¿Cómo hacer esto? Hay muchas fuentes de inspiración y Hopkins mostró cuatro de ellas: la estrategia de los océanos azules, la inteligencia de negocios, las redes sociales y los nuevos dispositivos.
En el primer caso hizo alusión a un libro de W. Chan Kim y Renée Mauborgne (Blue Ocean Strategy) en la que básicamente se divide a los mercados en dos grupos: el de los mercados rojos y el de los azules. El primero está compuesto por mercados existentes, con reglas definidas y fuerte competencia. El segundo está conformado por mercados nuevos, de bajo costo y donde la competencia es poca o inexistente.
El uso de la inteligencia de negocios, por su parte, tiene por objetivo darle vida a la información, es decir, hacer con la inteligencia de negocios lo que no se puede hacer por otros medios.
Las dos últimas fuentes de inspiración tienen que ver con los más recientes cambios que se han dado en la industria, el surgimiento de las redes sociales y de los nuevos dispositivos. En cada caso, la empresa tiene que determinar el uso adecuado de cada uno de estos elementos, más que el rechazo a los cambios que éstos puedan significar.
Volviendo a la pregunta ¿qué es un gerente de sistemas? Hopkins respondió que debe ser algo más que las alternativas que propuso, debe ser un artista y un creador, pues solo así podrá ser imprescindible para su organización.
SQL Server 2012
La siguiente exposición se podría calificar como el plato fuerte de la reunión. Sandrine Skinner, directora mundial de Comunicaciones de SQL Server, había llegado a Lima especialmente para presentar las novedades que ofrecía el nuevo software presentado por Microsoft en el evento.
Skinner denominó a su presentación La nueva era de la información con SQL Server 2012 y procedió a explicar el motivo de su aseveración.
El mundo de los datos está cambiando, sostuvo la ejecutiva. El crecimiento de los datos a nivel mundial se estima en 40%, mientras que el crecimiento del gasto en TI crece tan solo 5%. Algo más, se calcula que los datos con los que cuenta una corporación en Estados Unidos es superior a toda la información que tiene la Biblioteca del Congreso.
En el campo de los usuarios se estima que existen en promedio 4,3 dispositivos conectados por adulto en Estados Unidos. Mientras que en el lado de las aplicaciones se espera que para el 2013, un 15% de las aplicaciones de inteligencia de negocios añadirán capacidades sociales y de colaboración. Además, el 27% de las empresas incorporarán feedback de los medios sociales para la producción de sus productos.
¿Qué se puede hacer? Dar un gran paso mediante la adopción de tecnologías que permitan no solo enfrentar estos cambios, sino también aprovecharlos. En este caso ese paso es la adopción del SQL Server 2012, la cual puede proporcionar a las organizaciones tres características de gran utilidad.
La primera de ellas es la confianza de misión crítica. Esta característica se encuentra basadas, a su vez, en una serie de características como el AlwaysOn que implica que la solución tiene la protección de datos necesaria para ofrecer una gran seguridad a las organizaciones, además cuenta con una mejora en el desempeño -desde 10 hasta 100 veces más a lo obtenido hasta el momento- gracias al uso de tecnologías in memory.
También ofrece un organizational compliance gracias a las mayores medidas de seguridad con la que cuenta la herramienta, y a la auditoría que tiene incorporada. Además, se cuenta con más de 70 mil partners que se encuentran listos para realizar una resolución de problemas proactiva y el System Center Advisor y Premier Support.
La segunda característica es el llamado Breaktrought Insight, algo que se podría traducir en un entendimiento pleno y profundo. Esta característica se desarrolla, por ejemplo, a través de dos herramientas muy útiles: el PowerPivot en Excel -la hoja de cálculo sigue siendo el medio que más se usa para leer los datos manejados con el SQL Server- y el PowerView, una herramienta que ofrece una visualización de los datos bastante amigable y amoldable a las necesidades del usuario.
Otra de las ventajas del Breakthrough Insight es la inteligencia de negocios de autoservicio. Mediante ella es el propio usuario el que se genera su propia inteligencia de negocios, aunque con las previsiones establecidas en las medidas de seguridad de la empresa y su governance, a través del SharePoint.
Acceso a datos consistentes y confiables es otra de las ventajas. Esto se logra a través de los Data Quality Services y del BI Semantic Model que se encuentran incorporados dentro de la herramienta, y que proporcionan una mayor productividad y exactitud de los datos.
Finalmente, el Big Data Analytics y el Scalable Datawarehouse son otras de las ventajas de este producto. Con ellas se pueden analizar datos estructurados y no estructurados en tiempo real y con la ayuda de Hadoop, además de poder escalar el datawarehouse de acuerdo a las necesidades.
La tercera característica es la denominada Nube en sus términos. Por supuesto, la ventaja principal de la nube, la flexibilidad, es la primera de la que se hace mención. Con la herramienta se puede escalar (crecer o reducirse) de acuerdo a la demanda a la negocio. Además, la herramienta permite que se trasladen fácilmente las aplicaciones entre la nube y las instalaciones de la compañía, con una movilidad ilimitada de la virtualización y las licencias.
La herramienta también permite un fast time to market, o una rápida llegada al mercado. Se puede hacer uso de un modelo híbrido para ofrecer flexibilidad y opciones entre la nube y lo on premise.
Otra de las ventajas en este campo es la optimización de la productividad debido al uso de herramientas de administración y desarrollo comunes y conocidas: SQL Server Data Tools, T-SQL & SMSS.
Finalmente, otra de las ventajas es la de poder hacer uso de los datos en cualquier lugar. Esto es posible gracias al uso de Windows Azure Market Place y Data Sync; además de contar con el soporte para datos no estructurados y la interoperabilidad con PHP y Java.
Luego del evento pudimos conversar con la expositora vía correo electrónico, y aclarar algunos de los puntos sobre los que deseábamos profundizar.
La visión de Microsoft es permitir que todos los usuarios tengan acceso a una visión profunda del negocio desde virtualmente cualquier dato, incluyendo aquellos que se encontraban anteriormente ocultos dentro de los datos no estructurados. Para lograr esta visión Microsoft tiene una estrategia de Big Data completa para enfrentar los principales requerimientos de los clientes, sostuvo Skinner.
Los requerimientos a los que se refiere la ejecutiva son: una capa de administración flexible de los datos que soporte todos los tipos de datos (estructurados, semiestructurados y no estructurados; en movimiento o detenidos); una capa enriquecida que sirva para descubrir, transformar, compartir y gobernar los datos; y una suite de herramientas que ayude a los usuarios a tener una visión profunda del analytics.
Hadoop ha surgido como una gran plataforma para analizar los datos no estructurados o grandes volúmenes de datos, a bajo costo; lo cual se alinea bien con la visión de Microsoft para el nuevo mundo de los datos. También tiene una vibrante comunidad de usuarios y desarrolladores dispuestos a innovar en esta plataforma. Microsoft se encuentra orgullosa no solo de colaborar con esta vibrante comunidad sino también de ayudar en su adopción en la empresa, agregó la ejecutiva.
System Center 2012
Luego de la presentación de Skinner se realizó la de Gonzalo Jourde, gerente de Marketing y Negocios de Servidores y Herramientas de Microsoft Perú. Si la exposición anterior sirvió para la presentación del SQL Server 2012, la de Jourde cumpliría el mismo propósito con el System Center 2012. Su exposición Entregando TI como servicio, tenía ese propósito.
Quero hablarles de la infraestructura, que hay que tener centros de datos muy dinámicos y eficientes. Y no solo crearlos con los mejores elementos, sino entregar esto como un servicio al negocio; un servicio que vaya de la mano con los indicadores de gestión, sostuvo Jourde.
El ejecutivo comenzó su exposición señalando que, generalmente, cuando uno compra infraestructura lo hace pensando en tener la capacidad de satisfacer la demanda en tiempos de picos. Contra este enfoque -que es ineficiente en el uso de la infraestructura- se contrapone otro que propone el uso de la nube para resolver esta problemática gracias a su elasticidad.
De acuerdo a Jourde, Microsoft tiene una nube pública que se encuentra repartida en el mundo y una experiencia de años en la construcción de centros de datos para servir a sus clientes. Sus servicios cuentan también con varios años de existencia y se basan en una estandarización extrema y una arquitectura enfocada en brindar niveles de servicio.
Microsoft también tiene procesos establecidos y automatizados y la capacidad de delegar, es decir, proveer a los usuarios de un autoservicio, sostuvo el ejecutivo.
Jourde recordó a la audiencia que la presencia de Microsoft en la nube puede apreciarse en servicios como Hotmail, Office 365, Bing, Xbox Live y Windows Azure.
¿Por qué les cuento todo esto de la nube pública de Microsoft? Porque tenemos experiencia en la construcción de servicios con toda la tecnología y las arquitecturas de referencia para poder ayudarlos a construir esos servicios de nube pública en sus instalaciones, cuando ustedes lo crean conveniente. Y a eso lo vamos a llamar la nube privada, señaló el ejecutivo.
La nube privada es poder tener las características de la nube pública pero para tareas y aplicaciones que no se desea llevar a la nube pública por temas diversos, como la seguridad o el ancho de banda.
Entonces, la nube privada que ofrece Microsoft se encuentra basada en los servicios que ofrece Windows Server -básicamente virtualización- y System Center, que se ha transformado en la herramienta que habilita la posibilidad de construir una nube privada con las características de elasticidad y autoservicio en el propio centro de datos.
Jourde resumió su exposición en un cuadro en el que se podía observar en la parte superior los elementos que conforman la nube pública de Microsoft (Office 365, Microsoft Dynamics CRM OnLine, Windows Intune, y aplicaciones de terceros), todos soportados por la plataforma Windows Azure.
Mientras, la oferta de nube privada de Microsoft se encuentra compuesta por Lync, Exchange, SQL Server, SharePoint, Microsoft Dynamics, y aplicaciones de terceros; todos soportados sobre Windows Server y System Center.
Precisamente, este último elemento, desde la perspectiva de Jourde, es el que va a cambiar el futuro de la administración de la nube y del centro de datos.
Básicamente, System Center habilita la entrega de TI como servicio y también habilita la posibilidad de tener ambientes híbridos, es decir, tener una nube privada y una pública.
La forma en que funciona System Center es sencilla. System Center cuenta con un service desk, es decir, una plataforma para iniciar solicitudes; esta plataforma cuenta con una inteligencia, un automatizador de procesos, que entrega el servicio en forma automatizada. Obviamente, antes se tuvo que establecer un catálogo de servicios que se van a entregar.
Luego, el servicio tiene que ser configurado y desplegado en un ambiente, que puede ser una nube pública, o en una nube privada, o un ambiente físico. Entonces, es fundamental tener la visibilidad de toda la infraestructura disponible, sin importar dónde se vaya a desplegar el servicio.
Una vez que el servicio está configurado e instalado, se debe contar con la posibilidad de monitorizarlo. Para ello, System Center cuenta con cuatro managers que se encargan de diversas funciones: Virtual Machine Manager, Operations Manager, Configuration Manager y el Data Protection Manager.
Entonces, System Center tiene capacidades de administración de aplicaciones, entrega de servicios, automatización de procesos y administración de toda la infraestructura.
Jourde finalizó su exposición señalando que es el producto de una evolución que se inició en 1994 cuando el antecesor de esta herramienta tenía como función básica la configuración de los equipos. Posteriormente, fue añadiendo capacidades e ingresando a otros escenarios; así, en el 2000 se le agregó la capacidad de monitoreo e ingresó a los centros de datos; en el 2006 se le agregó el back up & recovery, y en el 2007 la virtualización de servidores, ingresando al terreno de la virtualización.
En el 2009 con la adquisición de Opalis se añade la automatización de los procesos TI, para finalmente en el 2010 ingresar al campo del soporte heterogéneo y cumplir la función de ser un administrador de servicios.
Luego de la presentación de Jourde, HP mostró el enfoque que ha preparado para el nuevo SQL Server, y posteriormente se desarrollaron los tracks en los que se hicieron presentaciones sobre el uso que se puede dar a estas herramientas.
Jose Antonio Trujillo, CIO Perú