Llegamos a ustedes gracias a:



Noticias

Skyhawk añade funciones ChatGPT a su oferta

Para mejorar la detección de amenazas en la nube y el descubrimiento de incidentes

[30/03/2023] El proveedor de detección y respuesta a amenazas en la nube (CDR, por sus siglas en inglés) Skyhawk ha anunciado la incorporación de la funcionalidad ChatGPT a su oferta para mejorar la detección de amenazas en la nube y el descubrimiento de incidentes de seguridad. La empresa ha aplicado las funciones de ChatGPT a su plataforma de dos formas distintas: detección más temprana de actividades maliciosas (Threat Detector) y explicabilidad de los ataques a medida que avanzan (Security Advisor), afirmó.

[Reciba lo último de CIO Perú suscribiéndose a nuestro newsletter semanal]

Según Skyhawk, el aumento del rendimiento conseguido con la integración del modelo de inteligencia artificial LLM (Large Language Model) que ofrece ChatGPT ha sido significativo. Afirma que su plataforma produjo alertas antes en el 78% de los casos al añadir la funcionalidad de puntuación ChatGPT de Threat Detector y Security Advisor. Las nuevas funciones están a disposición de los clientes de Skyhawk sin costo adicional. El lanzamiento se produce cuando el furor en torno a ChatGPT y su posible impacto en la ciberseguridad sigue apareciendo en los titulares, siendo Europol la última en advertir sobre los riesgos del phishing y la ciberdelincuencia potenciados por ChatGPT.

Las funciones de ChatGPT mejoran la confianza en la puntuación de las amenazas

Threat Detector utiliza la API ChatGPT -formada a partir de millones de datos de seguridad de toda la web- para aumentar los mecanismos de puntuación de amenazas de Skyhawk. Estos se basan en tecnologías propias de aprendizaje automático que utilizan indicadores de comportamiento malicioso (MBI) para asignar puntuaciones de alerta a las amenazas detectadas. Añadir ChatGPT al sistema de puntuación es un parámetro adicional que mejora la confianza de una puntuación dada y permite a la plataforma alertar antes de comportamientos anómalos, añadió Skyhawk.

En un ejemplo real, Threat Detector fue capaz de señalar una alerta antes de que un usuario realizara una extracción de datos arriesgada, explicó Chen Burshan, CEO de Skyhawk Security. "GPT levantó la bandera después de la primera actividad de la secuencia [falla de la API de AWS], lo que significa que pudimos evitar la extracción de datos alertando de esto mucho antes". En este escenario, la falla de la API de AWS es algo que, aunque malicioso, normalmente no se marcaría como dañino: la mayoría de los productos de seguridad no alertarán de esto o enviarán una alerta que se descartaría como algo que no es necesariamente amenazante, indicó Burshan. "GPT, junto con el MBI para esta actividad, nos dio la confianza necesaria para alertar al cliente de que se trataba de una verdadera alerta que podría causar una amenaza potencial (lo que hemos acuñado como Realert)", añadió.

Con Security Advisor, la funcionalidad ChatGPT explica, en lenguaje llano, los pasos de las secuencias de ataque detectadas por la plataforma, afirmó Burshan. Las explicaciones textuales aparecen en una nueva pestaña y ayudan a los equipos de seguridad a comprender los incidentes en un lenguaje más accesible y fácil de entender, según Burshan. "Por ejemplo, si hay un evento llamado 'use of ssm:GetParameter' en el paso dos de la secuencia de ataque, ChatGPT ayuda a explicarlo más claramente: 'Esta API permite a los usuarios recuperar información sensible almacenada en el almacén de parámetros de AWS Systems Manager...' y luego pasa a explicar cómo se realizó esa acción", indicó.

ChatGPT "no siempre es preciso" al analizar vulnerabilidades de código

En una investigación reciente, Trustwave SpiderLabs puso a prueba la capacidad de ChatGPT para realizar análisis de código estático básico en fragmentos de código vulnerables. Los tres fragmentos de código vulnerable que probó eran ejemplos de un simple desbordamiento de búfer, scripting cross-site basado en DOM y ejecución de código en el controlador webhook de notificaciones AWS de Discourse. A primera vista, las respuestas obtenidas fueron "asombrosas", según SpiderLabs. Sin embargo, después de escarbar un poco más en la superficie, SpiderLabs descubrió que las respuestas que ofrece ChatGPT no siempre son precisas.

"ChatGPT demuestra una mayor conciencia contextual y es capaz de generar exploits que abarcan un análisis más exhaustivo de los riesgos de seguridad. El mayor defecto al utilizar ChatGPT para este tipo de análisis es que es incapaz de interpretar el proceso de pensamiento humano que hay detrás del código", escribió la empresa. Para obtener los mejores resultados, ChatGPT necesitará más aportaciones del usuario para obtener una respuesta contextualizada que detalle lo que se necesita para ilustrar el propósito del código, añadió.

La detección de amenazas mejorada con ChatGPT/LLM se convertirá en una tendencia del mercado de la seguridad

Según Philip Harris, director de investigación de IDC, es probable que la detección de amenazas mejorada mediante ChatGPT/LLM se convierta en una tendencia del mercado de la seguridad a medida que los proveedores intenten hacer sus tecnologías más inteligentes. "Creo que pronto empezaremos a ver cosas muy interesantes en la carrera entre detectar e impedir que el malware entre en las organizaciones, y que el malware haga un mejor trabajo para entrar en las organizaciones [como resultado del uso nefasto de ChatGPT por parte de los ciberdelincuentes]". La preocupación es el grado en que la información potencialmente sensible / propiedad intelectual se introduce en ChatGPT, sostuvo Harris. "¿Qué información confidencial o secreta/propiedad intelectual vuelve a ChatGPT? ¿Quién más tiene acceso a ella y quién la consulta? Eso me preocupa muchísimo".

Casos de éxito

Más »