Un nuevo marco de Aprendizaje por Reforzamiento Profundo (DRL) puede reaccionar ante atacantes en un entorno simulado y bloquear el 95% de los ciberataques antes de que se intensifiquen.

Nuevo DRL bloquea el 95% de los ciberataques antes de que se intensifiquen.

Los defensores de la ciberseguridad deben adaptar dinámicamente sus técnicas y tácticas a medida que la tecnología se desarrolla y el nivel de complejidad en un sistema aumenta. A medida que la investigación en aprendizaje automático (ML) e inteligencia artificial (AI) ha avanzado en los últimos diez años, también lo han hecho los casos de uso de estas tecnologías en diversos ámbitos relacionados con la ciberseguridad. Algunas funcionalidades en la mayoría de las aplicaciones de seguridad existentes están respaldadas por fuertes algoritmos de aprendizaje automático entrenados en conjuntos de datos sustanciales. Un ejemplo de ello es la integración de algoritmos de ML en las pasarelas de seguridad de correo electrónico a principios de la década de 2010.

Cuando se trata del escenario del mundo real, crear estrategias de defensa de sistemas cibernéticos autónomos y recomendaciones de acción es una tarea difícil. Esto se debe a que proporcionar soporte de decisiones para mecanismos de defensa de sistemas cibernéticos de este tipo requiere tanto la incorporación de dinámicas entre atacantes y defensores como la caracterización dinámica de la incertidumbre en el estado del sistema. Además, los defensores cibernéticos a menudo se enfrentan a una variedad de limitaciones de recursos, incluidas las relacionadas con el costo, el trabajo y el tiempo. Incluso con la IA, desarrollar un sistema capaz de defensa proactiva sigue siendo un objetivo ideológico.

En un esfuerzo por ofrecer una solución a esta declaración de problema, investigadores del Pacific Northwest National Laboratory (PNNL) del Departamento de Energía de los Estados Unidos han creado un nuevo sistema de IA basado en aprendizaje por refuerzo profundo (DRL) que es capaz de responder a los atacantes en un entorno simulado y puede detener el 95% de los ciberataques antes de que escalen. Los investigadores crearon un entorno de simulación personalizado que muestra un conflicto digital de varias etapas entre atacantes y defensores en una red. Luego, entrenaron cuatro redes neuronales de DRL utilizando principios de aprendizaje por refuerzo, como maximizar las recompensas basadas en evitar compromisos y reducir la interrupción de la red. El trabajo del equipo también se presentó en la Association for the Advancement of Artificial Intelligence en Washington, DC, donde recibió muchos elogios.

La filosofía del equipo al desarrollar un sistema de este tipo fue mostrar primero que es posible entrenar con éxito una arquitectura de DRL. Antes de sumergirse en estructuras sofisticadas, querían demostrar métricas de evaluación útiles. Lo primero que hicieron los investigadores fue crear un entorno de simulación abstracto utilizando la herramienta Open AI Gym. La siguiente etapa fue utilizar este entorno para desarrollar entidades atacantes que mostraran niveles de habilidad y persistencia basados en un subconjunto de 15 enfoques y siete tácticas del marco MITRE ATT&CK. El objetivo de los atacantes es pasar por los siete pasos de la cadena de ataque, desde el acceso inicial y la fase de reconocimiento hasta otras fases de ataque hasta que alcanzan su objetivo final, que es la fase de impacto y exfiltración.

Es importante recordar que el equipo no tenía la intención de desarrollar un modelo para bloquear a un enemigo antes de que pudiera lanzar un ataque dentro del entorno. Más bien, asumen que el sistema ya ha sido comprometido. Los investigadores luego utilizaron el aprendizaje por refuerzo para entrenar cuatro redes neuronales. Los investigadores afirmaron que es concebible entrenar un modelo de este tipo sin utilizar el aprendizaje por refuerzo, pero llevaría mucho tiempo desarrollar un mecanismo sólido. Por otro lado, el aprendizaje por refuerzo profundo utiliza de manera muy eficiente este enorme espacio de búsqueda al imitar algunos aspectos del comportamiento humano.

Los esfuerzos de los investigadores por demostrar que los sistemas de IA pueden ser entrenados con éxito en un entorno de ataque simulado han demostrado que un modelo de IA es capaz de reacciones defensivas a los ataques en tiempo real. Para evaluar rigurosamente el rendimiento de cuatro algoritmos DRL sin modelos frente a secuencias de asalto reales y de varias etapas, los investigadores llevaron a cabo varios experimentos. Su investigación mostró que los algoritmos DRL pueden ser entrenados en perfiles de asalto de varias etapas con diferentes niveles de habilidad y persistencia, produciendo resultados de defensa efectivos en entornos simulados.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

LastMile AI lanza AiConfig un marco de desarrollo de aplicaciones de IA basado en configuración de código abierto y compatible con el control de fuente.

En el ámbito en constante evolución del desarrollo de aplicaciones de inteligencia artificial, AI Config de LastMile ...

Inteligencia Artificial

ULTRA Modelos de base para el razonamiento del gráfico de conocimiento

Entrenar un solo modelo genérico para resolver conjuntos de datos arbitrarios siempre ha sido un sueño para los inves...

Ciencia de Datos

Samsung adopta la IA y los grandes datos, revoluciona el proceso de fabricación de chips.

Samsung Electronics Co., el principal fabricante mundial de chips de memoria, está a punto de revolucionar su proceso...