El equipo de Red AI de Google los hackers éticos que hacen que la IA sea más segura

Equipo de Red AI de Google hackers éticos que aseguran IA

El mes pasado, presentamos el marco AI seguro (SAIF), diseñado para ayudar a abordar los riesgos de los sistemas de IA y establecer estándares de seguridad para la tecnología de manera responsable.

Para aprovechar este impulso, hoy publicamos un nuevo informe para explorar una capacidad crítica que implementamos para respaldar SAIF: la simulación de ataques (red teaming). Creemos que la simulación de ataques desempeñará un papel decisivo en preparar a cada organización para ataques a los sistemas de IA y esperamos trabajar juntos para ayudar a todos a utilizar la IA de manera segura. El informe examina nuestro trabajo para establecer un equipo de simulación de ataques de IA dedicado e incluye tres áreas importantes: 1) qué es la simulación de ataques en el contexto de los sistemas de IA y por qué es importante; 2) qué tipos de ataques simulan los equipos de simulación de ataques de IA; y 3) lecciones que hemos aprendido y que podemos compartir con otros.

¿Qué es la simulación de ataques?

El Equipo de Simulación de Ataques de Google está compuesto por un equipo de hackers que simulan una variedad de adversarios, desde estados nacionales y grupos conocidos de Amenaza Persistente Avanzada (APT) hasta hacktivistas, delincuentes individuales e incluso empleados malintencionados. El término proviene del ámbito militar y describe actividades en las que un equipo designado juega un papel adversarial (el “Equipo Rojo”) contra el equipo local.

10:25

Para obtener más información sobre el Equipo de Simulación de Ataques de Seguridad de Google, mira el video de arriba.

En la última década, hemos evolucionado nuestra metodología para aplicar el concepto de simulación de ataques a las últimas innovaciones tecnológicas, incluida la IA. El Equipo de Simulación de Ataques de IA está estrechamente alineado con los equipos de simulación de ataques tradicionales, pero también cuenta con la experiencia necesaria en el tema de la IA para llevar a cabo ataques técnicos complejos en los sistemas de IA. Para asegurarnos de que están simulando actividades adversarias realistas, nuestro equipo aprovecha los últimos conocimientos de los equipos de Inteligencia de Amenazas de Google de clase mundial, como Mandiant y el Grupo de Análisis de Amenazas (TAG), la simulación de ataques por abuso de contenido en la confianza y la seguridad, e investigaciones sobre los últimos ataques de Google DeepMind.

Tipos comunes de ataques de simulación de ataques en sistemas de IA

Una de las principales responsabilidades del Equipo de Simulación de Ataques de IA de Google es tomar investigaciones relevantes y adaptarlas para trabajar contra productos y características reales que utilizan IA para comprender su impacto. Los ejercicios pueden revelar hallazgos en seguridad, privacidad y disciplinas de abuso, según dónde y cómo se implemente la tecnología. Para identificar estas oportunidades para mejorar la seguridad, aprovechamos las tácticas, técnicas y procedimientos (TTP, por sus siglas en inglés) de los atacantes para probar una variedad de defensas del sistema. En el informe de hoy, hay una lista de TTP que consideramos más relevantes y realistas para adversarios del mundo real y ejercicios de simulación de ataques. Incluyen ataques rápidos, extracción de datos de entrenamiento, introducción de puertas traseras en el modelo, ejemplos adversarios, envenenamiento y extracción de datos.

Lecciones aprendidas

Ya hemos visto indicios tempranos de que las inversiones en experiencia y capacidades de IA en simulaciones adversarias tienen mucho éxito. Por ejemplo, las participaciones del equipo de simulación de ataques han resaltado vulnerabilidades y debilidades potenciales, lo que ha ayudado a anticipar algunos de los ataques que ahora vemos en los sistemas de IA. Estas son las lecciones clave que enumeramos en el informe:

  1. Los equipos de simulación de ataques tradicionales son un buen punto de partida, pero los ataques a los sistemas de IA se vuelven rápidamente complejos y se beneficiarán de la experiencia en el tema de la IA.
  2. Abordar los hallazgos del equipo de simulación de ataques puede ser un desafío y algunos ataques pueden no tener soluciones simples, por lo que alentamos a las organizaciones a incorporar la simulación de ataques en sus procesos de trabajo para impulsar la investigación y el desarrollo de productos.
  3. Los controles de seguridad tradicionales, como asegurarse de que los sistemas y modelos estén correctamente protegidos, pueden mitigar significativamente el riesgo.
  4. Muchos ataques a los sistemas de IA se pueden detectar de la misma manera que los ataques tradicionales.

Perspectivas futuras

Desde su creación hace más de una década, el Equipo de Simulación de Ataques de Google se ha adaptado a un panorama de amenazas en constante evolución y ha sido un socio confiable para los equipos de defensa en Google. Esperamos que este informe ayude a otras organizaciones a comprender cómo estamos utilizando este equipo crítico para asegurar los sistemas de IA y que sirva como un llamado a la acción para trabajar juntos en el avance de SAIF y elevar los estándares de seguridad para todos. Recomendamos que cada organización realice regularmente ejercicios de simulación de ataques para asegurar implementaciones críticas de IA en sistemas públicos importantes. Puedes obtener más información sobre la implementación de SAIF, la seguridad de los flujos de trabajo de IA y también puedes consultar mi charla de este año en el DEF CON AI Village.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Los modelos Whisper para reconocimiento automático del habla ahora están disponibles en Amazon SageMaker JumpStart.

Hoy, nos complace anunciar que el modelo de base Whisper de OpenAI está disponible para los clientes que utilizan Ama...

Inteligencia Artificial

¿Dónde ocurre la IA?

¿Hacia qué sector deberían dirigirse los investigadores en ciernes? ¿La academia o la industria?

Inteligencia Artificial

Científicos más cerca de encontrar una prueba para el COVID prolongado

Un equipo multiinstitucional de científicos podría haber descubierto biomarcadores de la COVID-19 prolongada que podr...

Inteligencia Artificial

El Cuadro de Búsqueda de Google Cambió el Significado de la Información

La búsqueda en la web prometía resolver preguntas. En cambio, trajo consigo un apocalipsis suave de la verdad.

Inteligencia Artificial

Hacia la IA General el papel de LLMs y Modelos Fundamentales en la Revolución del Aprendizaje de por Vida

En la última década y especialmente con el éxito del aprendizaje profundo, se ha formado una discusión continua en to...