
[18/06/2022] El aprendizaje automático (ML, por sus siglas en inglés) y la inteligencia artificial (IA) se están convirtiendo en una tecnología fundamental para algunas herramientas de detección y respuesta a las amenazas. La capacidad de aprender sobre la marcha y de adaptarse automáticamente a las cambiantes ciberamenazas da ventaja a los equipos de seguridad.
[Reciba lo último de CIO Perú suscribiéndose a nuestro newsletter semanal]
Sin embargo, algunos actores de amenazas también están utilizando el aprendizaje automático y la IA a para ampliar sus ciberataques, evadir los controles de seguridad y encontrar nuevas vulnerabilidades, todo ello a un ritmo sin precedentes y con resultados devastadores. Aquí están las nueve formas más comunes en que los atacantes aprovechan estas tecnologías.
1. Spam, spam, spam, spam
Los defensores llevan décadas utilizando el aprendizaje automático para detectar el spam, comenta Fernando Montenegro, analista de Omdia. "La prevención del spam es el mejor caso de uso inicial para el aprendizaje automático", señala.
Si el filtro de spam utilizado proporciona razones de por qué un mensaje de correo electrónico no pasó o genera una puntuación de algún tipo, entonces el atacante puede utilizarlo para modificar su comportamiento. Estarían utilizando la herramienta legítima para que sus propios ataques tengan más éxito. "Si envían cosas con la suficiente frecuencia, podrían reconstruir cuál era el modelo, y entonces podrían afinar su ataque para eludir este modelo", sostiene Montenegro.
No solo los filtros de spam son vulnerables. Cualquier proveedor de seguridad que proporcione una puntuación o algún otro resultado podría ser objeto de abuso, afirma Montenegro. "No todos tienen este problema, pero si no tiene cuidado, tendrán una salida útil que alguien puede utilizar con fines maliciosos".
2. Mejores correos electrónicos de phishing
Los atacantes no solo están utilizando herramientas de seguridad de aprendizaje automático para probar si sus mensajes pueden pasar los filtros de spam. También están utilizando el aprendizaje automático para crear esos correos electrónicos en primer lugar, señala Adam Malone, socio de EY, consultora de tecnología. "Están anunciando la venta de estos servicios en foros de delincuentes. Los utilizan para generar mejores correos electrónicos de phishing. Para generar personas falsas que impulsen las campañas de fraude".
Estos servicios se están anunciando específicamente como si utilizaran el aprendizaje automático, y probablemente no sea solo marketing. "La prueba está en el pudín", anota Malone. "Definitivamente son mejores".
El aprendizaje automático permite a los atacantes personalizar los correos electrónicos de phishing de forma creativa, para que no aparezcan correos masivos y estén optimizados para desencadenar el compromiso... y los clics. No se limitan al texto del correo electrónico. La IA puede utilizarse para generar fotos de aspecto realista, perfiles de redes sociales y otros materiales para que la comunicación parezca lo más legítima posible.
3. Mejor adivinación de contraseñas
Los delincuentes también están utilizando el aprendizaje automático para mejorar la adivinación de contraseñas, anota Malone. "Hemos visto pruebas de ello basadas en la frecuencia y las tasas de éxito de los motores de adivinación de contraseñas", añade. Los delincuentes están construyendo mejores diccionarios y pirateando los hashtags robados.
También están utilizando el aprendizaje automático para identificar los controles de seguridad, anota Malone, "para que puedan hacer menos intentos y adivinar mejores contraseñas y aumentar las posibilidades de acceder con éxito a un sistema".
4. Falsificaciones profundas
El uso más aterrador de la inteligencia artificial son las herramientas de falsificación profunda que pueden generar video o audio que es difícil de distinguir del humano real. "Ser capaz de simular la voz o la cara de alguien es muy útil contra los humanos", sostiene Montenegro. "Si alguien finge sonar como yo, puede caer en la trampa".
De hecho, en los últimos dos años se han hecho públicos un par de casos de gran repercusión en los que el audio falsificado cuesta a las empresas cientos de miles -o millones- de dólares. "La gente ha recibido llamadas telefónicas de su jefe... que eran falsas", indica Murat Kantarcioglu, profesor de ciencias de la computación en la Universidad de Texas.
Lo más habitual es que los estafadores utilicen la IA para generar fotos de aspecto realista, perfiles de usuario y correos electrónicos de phishing para que sus mensajes parezcan más creíbles. Es un gran negocio. Según el FBI, las estafas de compromiso de correo electrónico empresarial provocaron más de 43 mil millones de dólares en pérdidas desde el 2016. El otoño pasado, se informó en los medios de comunicación de un banco de Hong Kong engañado para transferir 35 millones de dólares a una banda criminal, porque un funcionario del banco recibió una llamada de un director de la empresa con el que había hablado antes. Reconoció la voz, por lo que autorizó la transferencia.
5. Neutralizar las herramientas de seguridad estándar
Muchas de las herramientas de seguridad más populares que se utilizan hoy en día llevan incorporada alguna forma de inteligencia artificial o aprendizaje automático. Las herramientas antivirus, por ejemplo, buscan cada vez más comportamientos sospechosos más allá de las firmas básicas. "Todo lo que está disponible en línea, especialmente el código abierto, puede ser aprovechado por los malos", anota Kantarcioglu.
Los atacantes pueden utilizar estas herramientas, no para defenderse de los ataques, sino para ajustar su malware hasta que pueda evadir la detección. "Los modelos de IA tienen muchos puntos ciegos", señala Kantarcioglu. "Podrías modificarlos cambiando las características de su ataque, como el número de paquetes que envía o los recursos que ataca".
No son solo las herramientas de seguridad potenciadas por la IA las que utilizan los atacantes. La IA forma parte de muchas tecnologías diferentes. Pensemos, por ejemplo, que los usuarios suelen aprender a detectar los correos electrónicos de phishing buscando errores gramaticales. Los correctores gramaticales impulsados por la IA, como Grammarly, pueden ayudar a los atacantes a mejorar su escritura.
6. Reconocimiento
El aprendizaje automático puede utilizarse para el reconocimiento, de modo que los atacantes puedan observar los patrones de tráfico, las defensas y las posibles vulnerabilidades de su objetivo. Esto no es algo fácil de hacer, por lo que no es probable que sea algo en lo que el ciberdelincuente medio se involucre. "Se necesitan algunas habilidades para utilizar la IA", sostiene Kantarcioglu, "por lo que creo que serían actores estatales avanzados los que utilizarían estas técnicas".
Sin embargo, si en algún momento la tecnología se comercializa y se ofrece como un servicio a través de la clandestinidad criminal, entonces podría ser más ampliamente accesible. También podría ocurrir "si un actor de la amenaza del Estado-nación desarrollara un kit de herramientas concreto que utilizara el aprendizaje automático y lo pusiera a disposición de la comunidad criminal", anota Mellen, "pero los ciberdelincuentes seguirían necesitando algún conocimiento de lo que hace la aplicación de aprendizaje automático y de cómo aprovecharlo eficazmente, lo que crea una barrera de entrada".
7. Agentes autónomos
Si una empresa se da cuenta de que está siendo atacada y corta el acceso a Internet de los sistemas afectados, el malware no podrá conectarse a sus servidores de mando y control para recibir instrucciones. "Los atacantes podrían querer crear un modelo inteligente que permanezca, aunque no puedan controlarlo directamente, para lograr una mayor persistencia", comenta Kantarcioglu. "Pero para la ciberdelincuencia habitual, creo que eso no sería súper importante".
8. Envenenamiento de la IA
Un atacante puede engañar a un modelo de aprendizaje automático alimentándolo con nueva información. "El adversario manipula el conjunto de datos de entrenamiento", anota Alexey Rubtsov, investigador senior asociado del Global Risk Institute. "Por ejemplo, lo sesgan intencionadamente, y la máquina aprende de forma equivocada".
Por ejemplo, una cuenta de usuario secuestrada puede entrar en un sistema todos los días a las 2 de la mañana para hacer un trabajo inocuo, haciendo que el sistema piense que no hay nada sospechoso en trabajar a las 2 de la mañana y reduzca los obstáculos de seguridad que el usuario tiene que pasar.
Esto es similar a cómo se enseñó al chatbot Tay de Microsoft a ser racista en el 2016. El mismo enfoque se puede utilizar para enseñar a un sistema que un determinado tipo de malware es seguro o que determinados comportamientos del bot son completamente normales.
9. Fuzzing de IA
Los desarrolladores de software legítimos y los probadores de penetración utilizan software de fuzzing para generar entradas de muestra aleatorias en un intento de bloquear una aplicación o encontrar una vulnerabilidad. Las versiones mejoradas de este software utilizan el aprendizaje automático para generar las entradas de una manera más centrada y organizada, priorizando, por ejemplo, las cadenas de texto con más probabilidades de causar problemas. Esto hace que las herramientas de fuzzing sean más útiles para las empresas, pero también más letales en manos de los atacantes.
Todas estas técnicas son una razón por la que la higiene básica de la ciberseguridad, como la aplicación de parches, la educación antiphishing y la microsegmentación, siguen siendo vitales. "Y es una de las razones por las que la defensa en profundidad es tan importante", señala Mellen de Forrester. "Hay que poner múltiples bloqueos, no solo lo que los atacantes acaban utilizando en su contra para su beneficio".
La falta de experiencia hace que el uso del aprendizaje automático y la IA por parte de los actores de amenazas sea bajo
Invertir en el aprendizaje automático requiere una gran experiencia, que ahora mismo escasea. Además, suele haber formas más sencillas y fáciles para que los adversarios entren en las empresas, ya que muchas vulnerabilidades siguen sin parchear.
"Hay mucha fruta al alcance de la mano, y muchas otras formas de ganar dinero sin usar necesariamente el aprendizaje automático y la IA para crear ataques", sostiene Mellen. "En mi experiencia, en la gran mayoría de los casos, no están haciendo uso de ello". A medida que las empresas mejoran sus defensas, y los delincuentes y las naciones-estado siguen invirtiendo en sus ataques, ese equilibrio podría empezar a cambiar pronto.
Basado en el artículo de Doug Drinkwater (CSO) y editado por CIO Perú