Investigadores de la Universidad de Binghamton presentan un sistema de anonimización que mejora la privacidad (Mi Rostro, Mi Elección) para que todos puedan tener control sobre sus rostros en las redes sociales de intercambio de fotos.
Researchers at Binghamton University present a privacy-enhancing anonymization system (My Face, My Choice) that gives everyone control over their faces on photo-sharing social networks.
Anonimización es un problema crítico en el contexto de algoritmos de reconocimiento e identificación facial. Con la creciente productización de estas tecnologías, han surgido preocupaciones éticas en relación a la privacidad y seguridad de las personas. La capacidad de reconocer e identificar a las personas a través de sus rasgos faciales plantea preguntas sobre el consentimiento, el control sobre los datos personales y el posible mal uso. Los sistemas actuales de etiquetado en las redes sociales deben abordar adecuadamente el problema de la aparición de caras no deseadas o no aprobadas en las fotos.
Controversias y preocupaciones éticas han empañado el estado del arte en algoritmos de reconocimiento e identificación facial. Sistemas anteriores carecían de garantías adecuadas de generalización y precisión, lo que llevó a consecuencias no deseadas. Se han empleado técnicas de manipulación contraria, como el desenfoque y el enmascaramiento, para desactivar el reconocimiento facial, pero alteran el contenido de la imagen y son fácilmente detectables. También se han desarrollado métodos de generación y confiscación adversarial, pero los algoritmos de reconocimiento facial están mejorando para resistir tales ataques.
En este contexto, un nuevo artículo publicado recientemente por un equipo de investigación de la Universidad de Binghamton propone un sistema que mejora la privacidad y aprovecha los deepfakes para engañar a los sistemas de reconocimiento facial sin romper la continuidad de la imagen. Introducen el concepto de “Mi Cara, Mi Elección” (MFMC), donde las personas pueden controlar en qué fotos aparecen, reemplazando sus caras con deepfakes disímiles para espectadores no autorizados.
- La aplicación ChatGPT de OpenAI presenta una función de navegación con integración de Bing.
- Investigadores de ETH Zurich y Max Plank proponen HOOD un nuevo método que aprovecha redes neuronales gráficas, paso de mensajes multinivel y entrenamiento no supervisado para permitir la predicción eficiente de la dinámica realista de la ropa.
- Investigadores del MIT introducen la técnica de Restart Sampling para mejorar los procesos generativos.
El método propuesto, MFMC, tiene como objetivo crear versiones deepfake de fotos con múltiples personas basado en derechos de acceso complejos otorgados por las personas en la imagen. El sistema opera en una red social de intercambio de fotos, donde los derechos de acceso se definen por cara en lugar de por imagen. Cuando se carga una imagen, los amigos del usuario pueden ser etiquetados, mientras que las caras restantes se reemplazan con deepfakes. Estos deepfakes se seleccionan cuidadosamente en base a diversas métricas, asegurando que sean cuantitativamente disímiles a las caras originales pero mantengan la continuidad contextual y visual. Los autores realizan extensas evaluaciones utilizando diferentes conjuntos de datos, generadores de deepfakes y enfoques de reconocimiento facial para verificar la efectividad y calidad del sistema propuesto. MFMC representa un avance significativo en el uso de incrustaciones faciales para crear deepfakes útiles como defensa contra algoritmos de reconocimiento facial.
El artículo muestra los requisitos de un generador de deepfakes que puede transferir la identidad de una cara objetivo sintética a una cara fuente original mientras preserva los atributos faciales y ambientales. Los autores integran múltiples generadores de deepfakes, como Nirkin et al., FTGAN, FSGAN y SimSwap, en su marco de trabajo. También introducen tres modelos de acceso: Revelación por Proximidad, Revelación por Autorización Explícita y Revelación Basada en Reglas de Acceso, para equilibrar la participación en las redes sociales y la privacidad individual.
La evaluación del sistema MFMC incluye la evaluación de la reducción en la precisión del reconocimiento facial utilizando siete sistemas de reconocimiento facial de última generación y comparando los resultados con métodos existentes de alteración facial para preservar la privacidad, como CIAGAN y Deep Privacy. La evaluación demuestra la efectividad de MFMC en la reducción de la precisión del reconocimiento facial. Destaca su superioridad sobre otros métodos en el diseño del sistema, la sistematización de la producción y la evaluación contra sistemas de reconocimiento facial.
En conclusión, el artículo presenta el sistema MFMC como un enfoque novedoso para abordar las preocupaciones de privacidad asociadas con los algoritmos de reconocimiento e identificación facial. Al aprovechar los deepfakes y los derechos de acceso otorgados por las personas, MFMC permite a los usuarios controlar en qué fotos aparecen, reemplazando sus caras con deepfakes disímiles para espectadores no autorizados. La evaluación de MFMC demuestra su efectividad en la reducción de la precisión del reconocimiento facial, superando los métodos existentes de alteración facial para preservar la privacidad. Esta investigación representa un paso significativo hacia la mejora de la privacidad en la era de la tecnología de reconocimiento facial y abre posibilidades para futuros avances en este campo.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Microsoft Research presenta phi-1 un nuevo modelo de lenguaje grande especializado en la codificación de Python con un tamaño significativamente más pequeño que los modelos competidores.
- Investigadores de Princeton presentan Infinigen un generador procedural de escenas tridimensionales fotorrealistas del mundo natural.
- Una nueva investigación de IA de Stanford, Cornell y Oxford presenta un modelo generativo que descubre intrínsecos de objetos a partir de solo unas pocas instancias en una sola imagen.
- Abordando la brecha de generalización del AI Investigadores de University College London proponen Spawrious – una suite de referencia de clasificación de imágenes que contiene correlaciones espurias entre clases y fondos.
- Revolutionizando la síntesis de texto a imagen investigadores de UC Berkeley utilizan modelos de lenguaje grandes en un proceso de generación de dos etapas para mejorar el razonamiento espacial y del sentido común.
- Investigadores de la Universidad de Surrey lanzan una herramienta revolucionaria de detección de objetos basada en bocetos en el aprendizaje automático.
- Investigadores de LinkedIn y UC Berkeley proponen un nuevo método para detectar fotos de perfil generadas por IA.