Llegamos a ustedes gracias a:



Noticias

Microsoft anuncia AI Security Copilot

[29/03/2023] Microsoft ha anunciado su AI Security Copilot, una implementación de GPT-4 que aporta capacidades de IA generativa a su suite de seguridad interna y cuenta con una serie de nuevas funciones de visualización y análisis.

La interfaz básica de AI Security Copilot es similar a la funcionalidad de chatbot familiar para los usuarios de IA generativa. Se puede utilizar de la misma manera, para responder a preguntas de seguridad de forma natural, pero las características más impresionantes se derivan de su estrecha integración con los productos de seguridad existentes de Microsoft, incluidos Defender, Sentinel, Entra, Purview, Priva e Intune. Copilot puede interpretar los datos de todos esos productos de seguridad y ofrecer explicaciones automatizadas y detalladas (incluidas visualizaciones), así como sugerencias de soluciones.

[Reciba lo último de CIO Perú suscribiéndose a nuestro newsletter semanal]

Además, el sistema tendrá capacidad para actuar contra algunos tipos de amenazas: por ejemplo, eliminando mensajes de correo electrónico con contenido malicioso identificado por un análisis previo. Microsoft dijo que tiene planes para ampliar las opciones de conectividad de Security Copilot más allá de los propios productos de la empresa, pero no ofreció más detalles en un livestream y una entrada de blog oficial en los que se detallaba el producto.

Microsoft señaló que, como producto de IA generativa, Security Copilot no va a dar respuestas correctas el 100% de las veces, y que necesitará formación adicional y aportaciones de los primeros usuarios para alcanzar todo su potencial.

La automatización es una de las ventajas de Security Copilot, pero sigue habiendo problemas

Según los expertos en IA, se trata de un sistema potente, aunque no tan novedoso como lo presentó Microsoft. Avivah Litan, distinguida vicepresidenta y analista de Gartner, dijo que IBM ha tenido capacidades similares a través de su IA Watson durante años.

"La IA aquí es más rápida y mejor, pero la funcionalidad es la misma", señaló. "Es una buena oferta, pero no resuelve los problemas que los usuarios tienen con la IA generativa".

Independientemente de esos problemas -el mayor de los cuales es la incapacidad admitida de Security Copilot para proporcionar información precisa en todos los casos-, las ventajas potenciales del sistema siguen siendo impresionantes, según el vicepresidente de investigación de IDC, Chris Kissel.

"La gran ventaja es que se podrían automatizar muchas más cosas", afirma. "La idea de tener un ChatGPT que escriba algo dinámicamente y los análisis para juzgarlo en contexto, en la misma capa, es convincente".

Ambos analistas, sin embargo, se mostraron ligeramente escépticos acerca de la política profesada por Microsoft sobre el intercambio de datos: esencialmente, que los datos privados no se utilizarán para entrenar los modelos fundacionales de IA y que toda la información del usuario permanecerá bajo su control. El problema, dijeron, es que los datos de incidentes son fundamentales para entrenar modelos de IA como el que se utiliza en Security Copilot, y que la empresa no ha ofrecido mucha información sobre cómo se manejarán esos datos.

"Es preocupante", afirma Kissel. "Si está intentando hacer algo que implique, por ejemplo, una pieza específica de propiedad intelectual, ¿puede haber salvaguardas que mantengan los datos en su sitio?".

"¿Cómo sabemos que los datos están realmente protegidos si no dan las herramientas para mirarlos?", anotó Litan.

Microsoft no anunció hoy una fecha de disponibilidad de Security Copilot, pero dijo que "esperamos compartir más pronto".

Casos de éxito

Más »