
[23/08/2022] La proliferación de herramientas es un problema desalentador que afecta a las TI de las empresas en todas partes, desde las operaciones del centro de datos hasta la ciberseguridad, la fiabilidad de la red y el rendimiento de las aplicaciones.
La proliferación de herramientas se produce cuando las organizaciones adquieren licencias (o no, en el caso del código abierto) para múltiples herramientas que abordan cuestiones relacionadas, pero que no se solapan del todo. La seguridad por capas es el ejemplo más obvio de esto, pero el problema afecta a los equipos de redes, DevOps y de la nube, etc.
[Reciba lo último de CIO Perú suscribiéndose a nuestro newsletter semanal]
"No importa cuántas herramientas se lancen a la gestión de redes e infraestructuras, seguirán existiendo lagunas", afirma Mark Leary, director de Network Analytics and Automation de IDC. "La observabilidad es una tarea ingente. Solo para la monitorización y la medición, la mayoría de las organizaciones tienen entre seis y más de 20 herramientas porque todas hacen algo un poco diferente a las demás."
¿Por qué es tan difícil resolver la proliferación de herramientas?
Una encuesta realizada por 451 Research descubrió que el 39% de los encuestados hacían malabares con entre 11 y 30 herramientas de monitorización en un esfuerzo por vigilar sus entornos de aplicaciones, infraestructura y nube, y el 8% utilizaba entre 21 y 30 herramientas.
Solo para la monitorización y gestión de la red, los equipos de TI pueden tener alguna combinación de Sumo Logic, Perimeter 81, TrendMicro, Opsview, Nagios, ManageEngine, SolarWinds y Extrahop, por nombrar solo algunas, así como herramientas específicas de proveedores y productos puntuales limitados que abordan problemas de nicho o emergentes.
"Desde el punto de vista operativo, esto crea ineficiencias en todos los aspectos de la gestión de TI y la gestión de redes", sostiene Mike Fratto, analista senior de Investigación, Infraestructura Aplicada y DevOps para S&P Global Market Intelligence (empresa matriz de 451 Research). "El operador es ahora el pegamento entre todas esas herramientas, lo que lleva a una gestión de silla giratoria. El operador debe pivotar constantemente de consola en consola".
El tejido conectivo entre esas consolas es la lógica que mantiene unido el mosaico en la cabeza del operador, lo que hace que esa persona no solo sea un punto único de falla, sino también alguien esencialmente indispensable y extremadamente difícil de sustituir o incluso de relevar en un mercado laboral ajustado.
Incluso con múltiples herramientas y un operador que pueda hacer malabarismos con los numerosos cuadros de mando sin esfuerzo, los entornos informáticos modernos y complejos requieren aún más. "Incluso con las herramientas más modernas, tendrá lagunas en su visibilidad, y esto puede ser muy incapacitante. Si se dispone de todas estas herramientas, pero no hay una arquitectura unificada, entonces el departamento de TI siempre está atascado. Inevitablemente, los trabajadores de TI altamente cualificados y con gran talento se ven atrapados haciendo un trabajo mundano", afirma Fratto.
Leary está de acuerdo. "La observabilidad por sí sola requiere muchas herramientas, y eso antes de tener en cuenta la nube, la seguridad, los contenedores, etc. En el caso de las redes, el problema es aún peor. Las redes se componen de un montón de subdominios diferentes diseñados para diferentes propósitos, por lo que se acaban necesitando herramientas para supervisar el centro de datos, la red del campus, la red en la nube, el Wi-Fi corporativo, el 5G, y nunca se acaba", anota Leary.
Cada nuevo subdominio requiere una mayor especialización tanto en las herramientas utilizadas para supervisarlo y gestionarlo, como en el personal que debe recibir formación especializada para manejar esas herramientas.
"Esto eleva los costos y reduce la productividad", afirma Leary. "Pero incluso con todas esas herramientas, hay que hacer frente a las lagunas".
¿Qué causa la proliferación de herramientas?
La dispersión de herramientas se produce por muchas razones legítimas, como las actividades de fusiones y adquisiciones, la rotación de personal (con nuevos empleados que traen consigo sus herramientas preferidas), y el constante tira y afloja entre los mejores productos de su clase y los consolidados.
A estas causas se añaden problemas comunes como las herramientas específicas de un proveedor que no se integran bien con otras, los diferentes equipos internos que compran productos diferentes para tareas similares, la prevalencia de las opciones de código abierto, y la necesidad de que las redes y la infraestructura sean ágiles y dinámicas para adaptarse a las tecnologías en constante evolución y a las condiciones del mercado.
Otro problema es la lucha diaria contra los incendios, que mantiene al departamento de TI atrapado en un modo reactivo. "A menudo, los departamentos de TI compran herramientas para resolver un problema muy específico, lo que puede llevar a un exceso de productos de nicho que no se integran bien con otras herramientas de supervisión y gestión", afirma Leary.
Con el tiempo, algunos de esos productos especializados pueden consolidarse en plataformas más grandes o integrarse en ecosistemas específicos de los proveedores. Sin embargo, aunque las herramientas se consoliden, las redes y la infraestructura siguen evolucionando de forma que crean nuevas oportunidades para que las empresas emergentes lancen nuevos productos puntuales que cubran nuevas lagunas.
Y el ciclo vuelve a empezar.
¿Cuánto cuesta la proliferación de herramientas?
El elevado costo de la proliferación de herramientas es evidente, pero opaco y difícil de cuantificar. El costo creciente de las licencias superpuestas y del software de uso único es bastante fácil de sumar, pero muchos de los costos de la proliferación de herramientas, como la pérdida de productividad, los diversos costos de oportunidad y la menor satisfacción laboral de los líderes de TI de alto nivel altamente cualificados y difíciles de sustituir, son mucho más difíciles de medir.
Según un informe de agosto del 2020 en el que 451 Research encuestó a 700 profesionales de TI en Estados Unidos y Europa, la empresa de investigación de mercado descubrió que solo "el 11% de los responsables de la toma de decisiones están satisfechos con sus herramientas de supervisión".
La insatisfacción con las herramientas puede transformarse fácilmente en insatisfacción laboral. "La proliferación de herramientas puede cobrar vida propia, sumiendo a los operadores de red en tareas mundanas que agotan a profesionales altamente cualificados", afirma Fratto.
Leary está de acuerdo. "¿Debería su personal superior tener que averiguar qué alarmas significan algo?", pregunta. "Porque eso es lo que tienen que hacer constantemente hoy en día". La mayoría de las organizaciones y la mayoría de los líderes de TI de alto nivel preferirían que estos especialistas altamente capacitados trabajen en proyectos de arquitectura, desarrollo y estrategia, en lugar de perseguir las causas raíz de lo que acaba de romperse.
Cómo controlar la proliferación de herramientas: 7 pasos
1. No tenga miedo de las nuevas herramientas: Aunque pueda parecer contradictorio, añadir más herramientas podría ayudar a controlar la proliferación de herramientas. Las herramientas de automatización de redes de empresas como NetBrain, Infoblox, SolarWinds y Cisco aplican la IA, el ML y el análisis al problema de la proliferación de redes y ayudan a las organizaciones a empezar a automatizar varias tareas.
Para determinados casos de uso, como la conectividad a las sucursales, muchas empresas ya han adoptado servicios de red gestionados, como NaaS y SD-WAN, que cuentan con análisis, inteligencia y automatización integrados en las ofertas principales.
2. Adoptar la subcontratación: La externalización puede ayudar a aliviar parte de la carga del personal interno de TI, pero no espere que un servicio gestionado resuelva todos sus problemas. "Si externaliza piezas de su red, como la 5G, obtendrá la ventaja de la especialización, y su MSP se encargará de varias tareas por usted", señala Leary. "Pero es como los primeros días de la nube. La gente no cerraba sus centros de datos. Más bien, pasaban ciertas cargas de trabajo a la nube, y si eso iba bien, añadían más". No se sorprenda si las redes y la automatización de redes siguen un camino similar.
3. Consolidar e integrar: Con el tiempo, los grandes proveedores adquirirán algunos de los productos puntuales en los que usted confía, y en otros casos, esas soluciones puntuales simplemente se convertirán en funciones de productos de la competencia que hacen algo nuevo que usted necesita abordar.
La consolidación puede ayudar a controlar la dispersión, pero incluso con productos consolidados, la integración con todas las demás herramientas es clave. Los ecosistemas de los proveedores son un buen lugar para encontrar productos que funcionen bien juntos, pero ¿qué ocurre cuando un producto puntual especializado del que depende no encaja en el ecosistema?
Si se exige a los proveedores que se comprometan con la integración y las API abiertas, se puede evitar una mayor dispersión en el camino.
4. Acepte las victorias fáciles: No hay necesidad de hacer que la reducción de la dispersión sea más difícil de lo que tiene que ser. "¿A qué dedica el personal de TI la mayor parte de su tiempo? Si se trata de la gestión de flujos de datos y la gestión de múltiples herramientas, empiece por ahí. Integre y consolide", recomienda Fratto. "Encuentra patrones que se repiten continuamente y resuélvelos".
5. Mejorar los procesos y los flujos de trabajo, no sólo las herramientas: No todas las soluciones tienen que ser tecnológicas. Tener procesos y flujos de trabajo claramente definidos para que los equipos de TI sigan, puede ofrecer grandes dividendos simplemente protegiendo a los líderes de TI de alto nivel de ser arrastrados a cada problema mundano porque los empleados menos experimentados temen tomar una decisión.
Además, los procesos y flujos de trabajo claramente definidos reducirán la naturaleza ad hoc de la resolución de problemas de TI.
6. Romper los silos de datos y de organización: Una de las razones por las que la proliferación de herramientas de red es un problema es que los numerosos dispositivos conectados a la red producen un flujo constante de datos, pero éstos tienden a quedar encerrados en silos específicos de aplicaciones o herramientas. Encontrar una manera de romper los silos de datos le ayudará a obtener más valor de sus datos, pero muchos de los silos que impiden el progreso no son silos de datos, sino organizativos.
"Desde el punto de vista organizativo, las empresas deben encontrar una estructura que se preste a trabajar juntas, a utilizar herramientas comunes y a compartir datos", afirma Leary.
Muchos equipos de TI adoptan una visión propietaria de sus herramientas y sus datos, y a menudo son reacios a compartirlos. "La colaboración entre equipos no se produce de forma natural, por lo que los líderes deben fomentarla activamente", añade Leary. "Si valoran el tipo de colaboración que reduce la dispersión, las organizaciones van a tener que forzar la cuestión".
7. Automatizar, automatizar, automatizar: "Automatizar" es un consejo tan común para resolver los problemas de TI que se ha convertido en el equivalente a que un instructor de fitness te recuerde que se mantengas hidratado. Sí. Lo sabemos. Sin embargo, si se está preparando para correr su primer maratón, su entrenador le dará consejos prácticos que le ayudarán a llegar a la meta.
Cuando intente consolidar, racionalizar y modernizar, no olvide la orientación de sentido común. Comprométase a encontrar herramientas que sean fáciles de integrar y que ofrezcan no solo una avalancha de datos, sino consejos prácticos.
"La automatización se presta a una mayor fiabilidad. Estandarice las cosas", señala Leary. "Pero las grandes ganancias actuales no provienen de la automatización básica, como las autoconfiguraciones, sino de hacer que sus redes sean más dinámicas, más robustas y más capaces de adaptarse a las cargas cambiantes".
Si espera terminar la maratón de contención de la proliferación de herramientas, busque herramientas que aprovechen el análisis para comprender automáticamente cómo cambian las condiciones de la red, de dónde procede la nueva demanda y cómo adaptarse sobre la marcha, eliminando al mismo tiempo los procesos manuales y propensos a errores.
Basado en el artículo de Jeff Vance (Network World)y editado por CIO Perú