Investigadores de UC Santa Cruz proponen una nueva herramienta de prueba de asociación de texto a imagen que cuantifica los estereotipos implícitos entre conceptos y valencia y los presentes en las imágenes
Investigadores de UC Santa Cruz proponen una herramienta de prueba de asociación de texto a imagen que cuantifica estereotipos implícitos entre conceptos y valencia presentes en las imágenes.
Un equipo de investigación de UC Santa Cruz ha introducido una nueva herramienta llamada Prueba de Asociación de Texto a Imagen. Esta herramienta aborda los sesgos inadvertidos en los sistemas de IA generativa de Texto a Imagen (T2I). Estos sistemas son conocidos por su capacidad de crear imágenes a partir de descripciones de texto, pero a menudo reproducen sesgos sociales en sus resultados. Bajo la dirección de un profesor asistente, el equipo desarrolló un método cuantificable para medir estos sesgos intrincados.
La Prueba de Asociación de Texto a Imagen ofrece un enfoque estructurado para evaluar sesgos en varias dimensiones, como género, raza, carrera y religión. Esta innovadora herramienta se presentó en la conferencia de la Asociación de Lingüística Computacional (ACL) de 2023. Su propósito principal es cuantificar e identificar sesgos dentro de modelos generativos avanzados, como Stable Diffusion, que pueden magnificar los prejuicios existentes en las imágenes generadas.
El proceso implica proporcionar una indicación neutral, como “niño estudiando ciencias”, al modelo. Posteriormente, se utilizan indicaciones específicas de género como “niña estudiando ciencias” y “niño estudiando ciencias”. Al analizar las diferencias entre las imágenes generadas a partir de las indicaciones neutrales y las específicas de género, la herramienta cuantifica el sesgo en las respuestas del modelo.
- Combinando los datos reales y las previsiones en una línea continua en Power BI
- Herramientas de IA para tu equipo de desarrollo ¿Adoptar o no adoptar?
- Una guía para construir modelos de datos en tiempo real con alto rendimiento
El estudio reveló que el modelo Stable Diffusion exhibía sesgos alineados con estereotipos comunes. La herramienta evaluó las conexiones entre conceptos como ciencia y arte, y atributos como masculino y femenino, asignando puntajes para indicar la fuerza de estas conexiones. Curiosamente, el modelo asoció sorprendentemente la piel oscura con la agrado y la piel clara con el desagrado, en contra de las suposiciones típicas.
Además, el modelo mostró asociaciones entre atributos como ciencia y hombres, arte y mujeres, carreras y hombres, y familia y mujeres. Los investigadores destacaron que su herramienta también considera elementos contextuales en las imágenes, incluidos los colores y la calidez, lo que la distingue de los métodos de evaluación anteriores.
Inspirada en la Prueba de Asociación Implícita en psicología social, la herramienta del equipo de UCSC representa un avance en la cuantificación de sesgos dentro de los modelos T2I durante sus etapas de desarrollo. Los investigadores anticipan que este enfoque permitirá a los ingenieros de software obtener medidas más precisas de los sesgos en sus modelos, ayudando a identificar y corregir los sesgos en el contenido generado por IA. Con una métrica cuantitativa, la herramienta facilita los esfuerzos continuos para mitigar los sesgos y monitorear el progreso a lo largo del tiempo.
Los investigadores recibieron comentarios alentadores e interés de colegas académicos en la conferencia ACL, y muchos expresaron entusiasmo por el impacto potencial de este trabajo. El equipo planea proponer estrategias para mitigar los sesgos durante las etapas de entrenamiento y refinamiento del modelo. Esta herramienta no solo expone los sesgos inherentes en las imágenes generadas por IA, sino que también proporciona un medio para rectificar y mejorar la equidad general de estos sistemas.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Google AI presenta Visually Rich Document Understanding (VRDU) un conjunto de datos para un mejor seguimiento del progreso de la tarea de comprensión de documentos
- Scikit-Learn vs TensorFlow ¿Cuál elegir?
- Integrando la Medición de la Actividad Cerebral con la Realidad Virtual
- Accediendo a tus datos personales
- ¿Te sientes arriesgado al entrenar tu modelo de lenguaje con datos restringidos? Conoce a SILO Un nuevo modelo de lenguaje que gestiona los compromisos entre riesgo y rendimiento durante la inferencia.
- Desmitificando el Aprendizaje Profundo Una Introducción de un Estudiante a las Redes Neuronales
- El caso en contra de la regulación de la IA no tiene sentido