Investigadores de UC Santa Cruz proponen una nueva herramienta de prueba de asociación de texto a imagen que cuantifica los estereotipos implícitos entre conceptos y valencia y los presentes en las imágenes

Investigadores de UC Santa Cruz proponen una herramienta de prueba de asociación de texto a imagen que cuantifica estereotipos implícitos entre conceptos y valencia presentes en las imágenes.

Un equipo de investigación de UC Santa Cruz ha introducido una nueva herramienta llamada Prueba de Asociación de Texto a Imagen. Esta herramienta aborda los sesgos inadvertidos en los sistemas de IA generativa de Texto a Imagen (T2I). Estos sistemas son conocidos por su capacidad de crear imágenes a partir de descripciones de texto, pero a menudo reproducen sesgos sociales en sus resultados. Bajo la dirección de un profesor asistente, el equipo desarrolló un método cuantificable para medir estos sesgos intrincados.

La Prueba de Asociación de Texto a Imagen ofrece un enfoque estructurado para evaluar sesgos en varias dimensiones, como género, raza, carrera y religión. Esta innovadora herramienta se presentó en la conferencia de la Asociación de Lingüística Computacional (ACL) de 2023. Su propósito principal es cuantificar e identificar sesgos dentro de modelos generativos avanzados, como Stable Diffusion, que pueden magnificar los prejuicios existentes en las imágenes generadas.

El proceso implica proporcionar una indicación neutral, como “niño estudiando ciencias”, al modelo. Posteriormente, se utilizan indicaciones específicas de género como “niña estudiando ciencias” y “niño estudiando ciencias”. Al analizar las diferencias entre las imágenes generadas a partir de las indicaciones neutrales y las específicas de género, la herramienta cuantifica el sesgo en las respuestas del modelo.

El estudio reveló que el modelo Stable Diffusion exhibía sesgos alineados con estereotipos comunes. La herramienta evaluó las conexiones entre conceptos como ciencia y arte, y atributos como masculino y femenino, asignando puntajes para indicar la fuerza de estas conexiones. Curiosamente, el modelo asoció sorprendentemente la piel oscura con la agrado y la piel clara con el desagrado, en contra de las suposiciones típicas.

Además, el modelo mostró asociaciones entre atributos como ciencia y hombres, arte y mujeres, carreras y hombres, y familia y mujeres. Los investigadores destacaron que su herramienta también considera elementos contextuales en las imágenes, incluidos los colores y la calidez, lo que la distingue de los métodos de evaluación anteriores.

Inspirada en la Prueba de Asociación Implícita en psicología social, la herramienta del equipo de UCSC representa un avance en la cuantificación de sesgos dentro de los modelos T2I durante sus etapas de desarrollo. Los investigadores anticipan que este enfoque permitirá a los ingenieros de software obtener medidas más precisas de los sesgos en sus modelos, ayudando a identificar y corregir los sesgos en el contenido generado por IA. Con una métrica cuantitativa, la herramienta facilita los esfuerzos continuos para mitigar los sesgos y monitorear el progreso a lo largo del tiempo.

Los investigadores recibieron comentarios alentadores e interés de colegas académicos en la conferencia ACL, y muchos expresaron entusiasmo por el impacto potencial de este trabajo. El equipo planea proponer estrategias para mitigar los sesgos durante las etapas de entrenamiento y refinamiento del modelo. Esta herramienta no solo expone los sesgos inherentes en las imágenes generadas por IA, sino que también proporciona un medio para rectificar y mejorar la equidad general de estos sistemas.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Mejorando la evaluación del diseño de ingeniería a través de métricas integrales para modelos generativos profundos

En el diseño de ingeniería, la dependencia de los modelos generativos profundos (DGMs) ha aumentado en los últimos añ...

Inteligencia Artificial

AWS reafirma su compromiso con la IA generativa responsable

Como pionero en inteligencia artificial y aprendizaje automático, AWS se compromete a desarrollar e implementar IA ge...

Inteligencia Artificial

Este documento de IA presenta BioCLIP aprovechando el conjunto de datos TreeOfLife-10M para transformar la visión por computadora en biología y conservación

Muchas ramas de la biología, incluyendo ecología, biología evolutiva y biodiversidad, están recurriendo cada vez más ...

Inteligencia Artificial

Una introducción práctica a los LLMs

Este es el primer artículo de una serie sobre el uso de Modelos de Lenguaje Grande (LLMs) en la práctica. Aquí daré u...

Aprendizaje Automático

Eliminación y destilación arquitectural Un camino hacia la compresión eficiente en modelos de difusión texto-imagen en IA.

Los modelos de difusión de texto a imagen representan un enfoque innovador para generar imágenes a partir de indicaci...