Cómo los hackers usan el machine learning para violar la ciberseguridad

Cómo los hackers usan el machine learning para violar la ciberseguridad

 

Desde un punto de vista técnico, el aprendizaje automático es un campo donde la ciberseguridad absoluta es imposible. No promete proteger completamente la confidencialidad, integridad y disponibilidad de datos y redes, sino que ofrece formas prácticas de reducir la escala de ataques y mejorar el nivel de seguridad en gran medida.

Una razón por la que no podemos evitar por completo las amenazas de ciberseguridad en el aprendizaje automático es que los ciberatacantes están adoptando la misma tecnología para los ataques, que incluyen malware y phishing, spam, DDoS, ransomware, spyware, etc. Además, las capacidades ofensivas son mucho más baratas y más fácil de desarrollar y desplegar que las medidas defensivas necesarias.

 

El uso de aplicaciones maliciosas impulsadas por IA en ataques cibernéticos masivos aumenta la velocidad, adaptabilidad, agilidad, coordinación e incluso sofisticación de los ataques en una gran población de redes y dispositivos. Mediante el uso de aprendizaje supervisado y no supervisado, estos programas maliciosos pueden ocultarse dentro del sistema de una víctima y generar credenciales para infiltrarse en dispositivos al pasar automáticamente por las opciones de contraseña y nombre de usuario a una velocidad más rápida de lo que un humano podría probar. Pueden aprender por sí mismos cómo y cuándo atacar su sistema objetivo y pueden evadir las medidas defensivas a través de cambios autoiniciados en la firma y el comportamiento en caso de un contraataque. Curiosamente, este tipo de adaptabilidad y dinamismo se ha convertido en una característica central de los sistemas de ataque y defensa.

Tradicionalmente, la opción más obvia para una aplicación de seguridad cibernética defensiva son los programas antivirus o antimalware, que funcionan escaneando códigos maliciosos específicos o aplicaciones con huellas digitales únicas. Buscan firmas y características específicas de familias de malware específicas para identificar ataques. Pero con las nuevas capacidades de aprendizaje automático, los atacantes pueden obstaculizar las aplicaciones antivirus tradicionales al aplicar ligeros cambios que desechan las firmas. Las tácticas avanzadas incluso permiten a los piratas informáticos evitar estas medidas de seguridad no solo para evitar los motores de detección de anomalías, sino también la seguridad facial y los filtros de spam, y promover comandos de voz falsos.

El estudio de «Inteligencia Artificial (IA) en Seguridad Cibernética» del Instituto Ponemon 2018 descubrió que la vulnerabilidad de día cero, es decir, un problema de software o vulnerabilidad no descubierta sin parches conocidos, representa una de las formas más seguras de piratear un sistema. La IA tiene la capacidad de detectar exploits de día cero previamente indetectables en un 63 por ciento, y cuando los piratas informáticos usan AI, estas vulnerabilidades de día cero se convierten en un gran problema. Para los hackers, son esenciales para los ciberataques avanzados. Fuzzing es un método antiguo pero estándar utilizado por los atacantes para encontrar y explotar esas vulnerabilidades. Con IA y aprendizaje automático, los atacantes pueden incluso automatizar el proceso de fuzzing para detectar las debilidades antes de que los defensores las encuentren y las arreglen.

CAPTCHA es un sistema frecuente utilizado por sitios web y redes para distinguir a los usuarios humanos de los bots o la entrada de la máquina y obtener acceso no autorizado. Pero el aprendizaje profundo y la visión por computadora se han convertido en una forma para que los piratas informáticos rompan CAPTCHA. Adrian Rosebrock es una de las primeras personas en romper CAPTCHA. En su libro «Aprendizaje profundo para la visión por computadora con Python», Adrian explica cómo eludió los sistemas CAPTCHA en el sitio web E-ZPass de Nueva York, utilizando el aprendizaje profundo. Entrenó a su modelo descargando un conjunto de datos de imágenes grandes de ejemplos CAPTCHA para romper los sistemas CAPTCHA. Los expertos dicen que si tenemos acceso al código fuente (que viene cuando uno instala un complemento de WordPress para generar CAPTCHA), tomará menos de 15 minutos piratear CAPTCHA, utilizando el aprendizaje automático. En 2012, los investigadores probaron que el aprendizaje automático podía evitar los sistemas basados ​​en reCAPTCHA con una tasa de éxito del 82 por ciento. Más recientemente, en 2017, los investigadores utilizaron el aprendizaje automático para respaldar la precisión del 98 por ciento para eludir las protecciones reCAPTCHA de Google.

Los ataques furtivos son otra forma peligrosa de ataque cibernético que los hackers usan para penetrar en un sistema. En estos ataques, los piratas informáticos primero crean un malware capaz de imitar componentes confiables del sistema y dejar que se mezcle con el entorno de seguridad de una organización. Aprende automáticamente el entorno informático de la organización, el ciclo de vida de la actualización de parches y los protocolos de comunicación preferidos. La aplicación maliciosa permanece en silencio durante años sin ser detectada mientras los hackers esperan para atacar cuando los sistemas son más vulnerables. Los hackers luego ejecutan los ataques indetectables cuando nadie espera. Los piratas informáticos también pueden predefinir una función de aplicación como un disparador de IA para ejecutar ataques en un momento específico, por ejemplo, diez meses después de que se hayan instalado las aplicaciones, o cuando los sistemas estén menos protegidos.

La tecnología Deepfake es otra táctica común que los ladrones utilizan para engañar a las empresas / individuos y robarles su dinero. Los deepfakes son videos o imágenes falsas de personas, que se utilizan para convencer a alguien de creer que un artificio virtual es real. Se hacen usando redes neuronales artificiales. En octubre, el director ejecutivo de una compañía de energía del Reino Unido fue engañado para transferir € 200,000 a un proveedor húngaro, porque creía que su CEO le estaba ordenando que lo hiciera. Pero en realidad, un estafador usó deepfake para imitar la voz y exigir el pago en una hora. El software podría imitar no solo la voz, sino también la tonalidad, la puntuación y el acento alemán.

En resumen, los piratas informáticos están recurriendo a la inteligencia artificial y al aprendizaje automático para armarse de malware y ataques para contrarrestar los avances realizados en las soluciones de seguridad cibernética. Pero la buena noticia es que los desarrolladores de IA siguen intensificando sus defensas. Utilizan algoritmos para simular ataques contra un ecosistema, lo que potencialmente ayuda a los analistas a verificar, atacar, defender y proteger vulnerabilidades.

La mayor fortaleza del aprendizaje automático en ciberseguridad es la detección de anomalías, es decir, para ayudar a comprender qué es el comportamiento «normal» de un sistema y marcar cualquier cosa inusual para la revisión humana. Automatizar el escaneo de red y la detección de anomalías nos permite identificar comportamientos sospechosos mucho más rápido, mitigar una posible infracción, minimizar su impacto y, por lo tanto, mejorar la resistencia de un sistema.

El aprendizaje automático ya se está implementando en el filtrado de comunicaciones, antivirus, escaneo de vulnerabilidades, malware y análisis forense, filtros de spam y defensa contra phishing. También se utiliza para abordar la propagación de la propaganda computacional. El aprendizaje automático acelera sustancialmente este proceso para el analista de seguridad. Es particularmente crucial, ya que la ciberseguridad se ha movido de la defensa del perímetro para incluir el escaneo de la red en busca de comportamientos inusuales o anomalías que puedan constituir una violación. Este concepto se aplica a todo tipo de detección de amenazas asistida por aprendizaje automático. Pero los investigadores dicen que la interacción entre el aprendizaje automático y el humano es la fuerza crucial de las técnicas. Quizás, el aprendizaje automático no es una panacea, pero seguramente puede ayudar a identificar agujeros de seguridad y prevenirlos.


Leave a Reply