Engañando a los clasificadores forenses El poder de los modelos generativos en la generación adversarial de rostros

Engañando a los clasificadores forenses El poder de los modelos generativos en la generación adversarial de rostros

Los avances recientes en el Aprendizaje Profundo (DL), específicamente en el campo de las Redes Generativas Adversariales (GAN), han facilitado la generación de rostros humanos altamente realistas y diversos que no existen en la realidad. Si bien estos rostros creados artificialmente han encontrado numerosas aplicaciones beneficiosas en áreas como los videojuegos, la industria del maquillaje y los diseños asistidos por computadora, plantean importantes preocupaciones de seguridad y ética cuando se utilizan de manera incorrecta.

El uso indebido de rostros sintéticos o falsos puede tener graves repercusiones. Por ejemplo, ha habido casos en los que se emplearon imágenes de rostros generadas por GAN en las elecciones de Estados Unidos para crear perfiles fraudulentos en las redes sociales, lo que permitió la rápida difusión de desinformación entre grupos específicos. De manera similar, un estudiante de secundaria de 17 años logró engañar a Twitter para verificar una foto de perfil falsa de un candidato al Congreso de Estados Unidos, utilizando un potente modelo generativo conocido como StyleGAN2. Estos incidentes destacan los riesgos potenciales asociados con el uso indebido de imágenes de rostros generadas por GAN, resaltando la importancia de abordar las implicaciones de seguridad y ética de su uso.

Para abordar el problema de los rostros falsos generados sintéticamente por GAN, se han propuesto varios métodos para diferenciar entre rostros falsos generados por GAN y rostros reales. Los hallazgos informados en estos estudios sugieren que los clasificadores simples basados en aprendizaje profundo supervisado suelen ser altamente efectivos para detectar imágenes generadas por GAN. Estos clasificadores se conocen comúnmente como clasificadores o modelos forenses.

Sin embargo, un atacante inteligente podría manipular estas imágenes falsas utilizando técnicas de aprendizaje automático adversarial para evadir los clasificadores forenses mientras mantiene una alta calidad visual. Una investigación reciente explora esta dirección al demostrar que la exploración adversarial del espacio latente del modelo generativo a través de la optimización del espacio latente puede generar rostros realistas que son clasificados erróneamente por detectores forenses específicos. Además, demuestran que los rostros falsos adversariales resultantes exhiben menos artefactos en comparación con los ataques adversariales tradicionales que imponen restricciones en el espacio de la imagen.

Este trabajo, sin embargo, tiene una limitación significativa. A saber, carece de la capacidad para controlar los atributos de los rostros adversariales generados, como el color de piel, la expresión o la edad. El control de estos atributos faciales es crucial para los atacantes que buscan difundir rápidamente propaganda falsa a través de plataformas de redes sociales, dirigidas específicamente a ciertos grupos étnicos o de edad.

Dadas las posibles implicaciones, se vuelve imperativo que los investigadores forenses de imágenes exploren y desarrollen ataques condicionados por atributos. De esta manera, pueden descubrir las vulnerabilidades de los clasificadores forenses faciales existentes y, en última instancia, trabajar hacia el diseño de mecanismos de defensa eficaces en el futuro. La investigación explicada en este artículo tiene como objetivo abordar la necesidad apremiante de control de atributos en los ataques adversariales, asegurando una comprensión integral de las vulnerabilidades y promoviendo el desarrollo de contramedidas robustas.

A continuación se informa una descripción general del método propuesto.

Se presentan dos arquitecturas, una relacionada con la generación basada en atributos y otra para la generación de texto. De hecho, ya sea impulsado por imágenes o guiado por texto, el método propuesto tiene como objetivo generar rostros falsos adversariales realistas que puedan engañar a los detectores forenses faciales. La técnica utiliza el espacio latente altamente desentrelazado de StyleGAN2 para construir ataques sin restricciones condicionados por atributos dentro de un marco unificado.

Específicamente, se introduce un algoritmo eficiente para optimizar adversarialmente las variables latentes específicas de atributos para generar un rostro falso que exhiba los atributos presentes en una imagen de referencia dada. Este proceso transfiere de manera efectiva detalles deseados a nivel grueso o fino de la imagen de referencia a la imagen falsa generada. Los atributos semánticos se transfieren de una imagen de referencia proporcionada al realizar la condición de atributo basada en imágenes. Esto se logra buscando en el espacio adversarial mientras se guía por una pérdida perceptual, lo que permite la transferencia de atributos deseados a la imagen falsa generada.

Además, se aprovechan las capacidades conjuntas de representación de imágenes y texto del Preentrenamiento Contrastivo de Lenguaje-Imagen (CLIP) para generar caras falsas basadas en descripciones de texto proporcionadas. Esto permite garantizar la coherencia entre la imagen adversaria generada y la descripción de texto correspondiente. Al utilizar el espacio de características guiado por texto de CLIP, el método busca códigos latentes adversarios dentro de este espacio de características, lo que permite generar caras falsas que se alinean con los atributos descritos en el texto acompañante.

A continuación, se presentan algunos resultados disponibles en el artículo.

Este fue el resumen de una nueva técnica de IA para generar caras adversarias realistas y evadir clasificadores forenses. Si estás interesado y deseas obtener más información sobre este trabajo, puedes encontrar información adicional haciendo clic en los enlaces a continuación.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Este boletín de inteligencia artificial es todo lo que necesitas #62

Esta semana hemos estado observando el desarrollo de modelos de codificación en META, así como las nuevas capacidades...

Aprendizaje Automático

Conoce TRACE Un Nuevo Enfoque de IA para la Estimación Precisa de la Postura y la Forma Humana en 3D con Seguimiento de Coordenadas Globales.

Muchas áreas pueden beneficiarse y utilizar los avances recientes en la estimación de la pose y forma humana 3D (HPS)...

Inteligencia Artificial

¿Ha terminado la espera por Jurassic Park? Este modelo de IA utiliza la traducción de imagen a imagen para dar vida a los antiguos fósiles

La traducción de imagen a imagen (I2I) es un campo interesante dentro de la visión por computadora y el aprendizaje a...

Inteligencia Artificial

Las ratas utilizan la imaginación para navegar en realidad virtual

Investigadores del Instituto Howard Hughes Medical Institute probaron si las ratas, al igual que los humanos, pueden ...

Inteligencia Artificial

OpenAI presenta GPTBot un rastreador web diseñado para extraer datos de toda la Internet automáticamente

OpenAI ha respondido a las preocupaciones de privacidad y propiedad intelectual derivadas de la recopilación de datos...

Inteligencia Artificial

Este artículo de IA de NTU Singapur presenta MeVIS un banco de pruebas a gran escala para la segmentación de video con expresiones de movimiento

La segmentación de video guiada por lenguaje es un campo en desarrollo que se centra en segmentar y rastrear objetos ...