[08/06/2023] Las organizaciones de TI que aplican la tecnología de inteligencia artificial y aprendizaje automático (IA/AM) a la gestión de redes están descubriendo que la IA/AM puede cometer errores, pero la mayoría de las organizaciones creen que la gestión de redes basada en IA mejorará sus operaciones de red.
Para obtener estos beneficios, los gestores de red deben encontrar una forma de confiar en estas soluciones de IA a pesar de sus fallas. Las herramientas de IA explicables podrían ser la clave.
[Reciba lo último de CIO Perú suscribiéndose a nuestro newsletter semanal]
Una encuesta revela que los ingenieros de redes se muestran escépticos.
En una encuesta realizada por Enterprise Management Associates (EMA) a 250 profesionales de TI que utilizan tecnología de IA/ML para la gestión de redes, el 96% afirmó que estas soluciones han producido ideas y recomendaciones falsas o erróneas. Según el reciente informe de EMA "AI-Driven Networks: Leveling Up Network Management". En general, el 44% de los encuestados dijo confiar mucho en sus herramientas de gestión de redes basadas en IA, y otro 42% confía ligeramente en estas herramientas.
Sin embargo, los miembros de los equipos de ingeniería de redes se mostraron más escépticos que otros grupos -ingenieros de herramientas informáticas, ingenieros de la nube o miembros de las suites CIO-, lo que sugiere que las personas con mayor experiencia en redes son las menos convencidas. De hecho, el 20% de los encuestados afirmó que la resistencia cultural y la desconfianza del equipo de redes era uno de los mayores obstáculos para el uso con éxito de las redes basadas en IA. Los encuestados que trabajan en un equipo de ingeniería de redes tenían el doble de probabilidades (40%) de citar este reto.
Dada la prevalencia de errores y la tibia aceptación por parte de los expertos en redes de alto nivel, ¿cómo están generando confianza las organizaciones en estas soluciones?
¿Qué es la IA explicable y cómo puede ayudar?
La IA explicable es un concepto académico adoptado por un número creciente de proveedores de soluciones comerciales de IA. Se trata de una subdisciplina de la investigación en IA que hace hincapié en el desarrollo de herramientas que expliquen cómo la tecnología de IA/ML toma decisiones y descubre ideas. Los investigadores sostienen que las herramientas de IA explicable allanan el camino para la aceptación humana de la tecnología de IA. También pueden resolver problemas éticos y de cumplimiento.
La investigación de EMA validó esta noción. Más del 50% de los participantes en la investigación afirmaron que las herramientas de IA explicables son muy importantes para generar confianza en la tecnología de IA/ML que aplican a la gestión de redes. Otro 41% dijo que era algo importante.
La mayoría de los participantes señalaron tres herramientas y técnicas de IA explicables que mejor ayudan a generar confianza:
- Visualizaciones de cómo se descubrieron los conocimientos (72%): Algunos proveedores incorporan elementos visuales que guían a los humanos a través de los caminos que siguen los algoritmos de IA/ML para desarrollar conocimientos. Esto incluye árboles de decisiones, elementos visuales ramificados que muestran cómo la tecnología trabaja con los datos de la red y los interpreta.
- Explicaciones en lenguaje natural (66%): Estas explicaciones pueden ser frases estáticas fijadas a las salidas de una herramienta de IA/ML, y también pueden venir en forma de chatbot o asistente virtual que proporciona una interfaz conversacional. Los usuarios con distintos niveles de conocimientos técnicos pueden entender estas explicaciones.
- Puntuaciones de probabilidad (57%): Algunas soluciones de IA/ML presentan información sin contexto sobre el grado de confianza en sus propias conclusiones. Una puntuación de probabilidad adopta un enfoque diferente, emparejando cada idea o recomendación con una puntuación que indica el grado de confianza del sistema en sus resultados. Esto ayuda al usuario a determinar si debe actuar sobre la base de la información, esperar a ver qué pasa o ignorarla por completo.
Los encuestados que informaron de un mayor éxito general con las soluciones de red basadas en IA eran más propensos a ver valor en estas tres capacidades.
Puede haber otras formas de generar confianza en las redes basadas en IA, pero la IA explicable puede ser una de las más efectivas y eficientes. Ofrece cierta transparencia en los sistemas de IA/ML que, de otro modo, podrían ser opacos. Al evaluar las redes basadas en IA, los compradores de TI deben preguntar a los proveedores cómo ayudan a los operadores a desarrollar la confianza en estos sistemas con IA explicable.
Basado en el artículo de Shamus McGillicuddy (Network World) y editado por CIO Perú