Conoce los Modelos de Difusión Compartimentados (CDM) Un enfoque de IA para entrenar diferentes modelos de difusión o indicaciones en distintas fuentes de datos.
Conoce los Modelos de Difusión Compartimentados (CDM), un enfoque de IA para entrenar modelos de difusión en distintas fuentes de datos.
Con los avances recientes en tecnología y en el campo de la Inteligencia Artificial, ha habido mucho progreso y mejora. Ya sea la generación de texto utilizando el conocido modelo ChatGPT o la generación de texto a imagen; todo es ahora factible. Los modelos de difusión han despertado mucho interés debido a su capacidad de permitir a las personas crear visuales llamativos utilizando sugerencias verbales directas o bocetos sencillos. El volumen masivo de datos de entrenamiento dificulta confirmar el origen de cada imagen, lo que ha llevado a plantear preguntas sobre la identificación precisa de la fuente de las fotos generadas.
Se han sugerido diversas estrategias para abordar este problema, incluyendo limitar la influencia de las muestras de entrenamiento antes de usarlas, resolver el impacto de ejemplos de entrenamiento incluidos incorrectamente después de haber sido utilizados, y limitar la influencia de las muestras en la salida del entrenamiento. Otro objetivo es determinar qué muestras tuvieron el mayor impacto en el entrenamiento del modelo para evitar crear imágenes demasiado similares a los datos de entrenamiento. Estas estrategias de protección no han demostrado ser efectivas con los Modelos de Difusión, especialmente en entornos grandes, a pesar de la investigación continua en estas áreas, porque los pesos del modelo combinan datos de varias muestras, lo que dificulta tareas como el desaprendizaje.
Para superar esto, un equipo de investigadores de AWS AI Labs ha introducido la última metodología llamada Modelos de Difusión Compartimentalizados (CDM), que proporciona una forma de entrenar diferentes modelos de difusión o comandos en diversas fuentes de datos y luego combinarlos sin problemas durante la etapa de inferencia. Con el uso de este método, cada modelo puede entrenarse individualmente en diferentes momentos y utilizando diferentes conjuntos de datos o dominios. Estos modelos se pueden combinar para proporcionar resultados con un rendimiento comparable al que podría producir un modelo ideal entrenado con todos los datos de manera simultánea.
- Dynalang Uniendo la comprensión del lenguaje y la predicción futura en el aprendizaje de agentes
- La ciudad más avanzada tecnológicamente de Estados Unidos tiene dudas sobre los coches autónomos
- China redacta reglas para la tecnología de reconocimiento facial
La singularidad de los CDM radica en el hecho de que cada uno de estos modelos individuales solo tiene conocimiento del subconjunto particular de datos al que fue expuesto durante el entrenamiento. Esta cualidad crea oportunidades para diversos métodos de protección de los datos de entrenamiento. En el contexto de los modelos de difusión extendidos, los CDM destacan como el primer método que permite tanto el olvido selectivo como el aprendizaje continuo, como resultado de lo cual, los componentes individuales de los modelos pueden cambiar u olvidarse, proporcionando un método más flexible y seguro para que los modelos cambien y se desarrollen con el tiempo.
Los CDM también tienen la ventaja de permitir la creación de modelos únicos basados en los privilegios de acceso del usuario, lo que sugiere que los modelos se pueden modificar para cumplir con requisitos o limitaciones específicas del usuario, mejorando su utilidad práctica y manteniendo la privacidad de los datos. Además de estas características, los CDM ofrecen información sobre la importancia de subconjuntos de datos particulares en la producción de muestras específicas. Esto implica que los modelos pueden proporcionar información sobre las partes de los datos de entrenamiento que tienen un mayor impacto en un resultado dado.
En conclusión, los Modelos de Difusión Compartimentalizados son definitivamente un marco potente que permite el entrenamiento de modelos de difusión distintos en diversas fuentes de datos, que posteriormente se pueden integrar sin problemas para producir resultados. Este método ayuda a preservar los datos y promover el aprendizaje flexible, al tiempo que amplía las capacidades de los modelos de difusión para cumplir con diversos requisitos del usuario.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Ya está mucho más allá de lo que los humanos pueden hacer’ ¿Eliminará la IA a los arquitectos?
- Inmersión profunda en el modo de copia por escritura de pandas Parte I
- LLMs afinados para la predicción de sentimientos – Cómo analizar y evaluar
- AI Prowess Utilizando Docker para la implementación y escalabilidad eficiente de aplicaciones de Aprendizaje Automático
- 7 Estúpidas Razones por las que la Gente no está Utilizando la IA
- Genera publicidad creativa utilizando inteligencia artificial generativa implementada en Amazon SageMaker
- Los ajustes de privacidad de Zoom avivan el temor de que sus llamadas se utilicen para entrenar a la IA