Investigadores de Meta y UNC-Chapel Hill introducen Branch-Solve-Merge un programa revolucionario que mejora el rendimiento de modelos de lenguaje grandes en tareas complejas de lenguaje.
Investigadores de Meta y UNC-Chapel Hill presentan Branch-Solve-Merge, un revolucionario programa que potencia el rendimiento de modelos de lenguaje en tareas complejas.
BRANCH-SOLVE-MERGE (BSM) es un programa para mejorar los Grandes Modelos de Lenguaje (LLM) en tareas complejas de lenguaje natural. BSM incluye módulos de ramificación, resolución y fusión para planificar, resolver y combinar sub tareas. Aplicado a la evaluación de respuestas de LLM y la generación de texto restringido con modelos como Vicuna, LLaMA-2-chat y GPT-4, BSM aumenta el acuerdo humano-LLM, reduce los sesgos y permite que LLaMA-2-chat iguale o supere a GPT-4 en la mayoría de los ámbitos. También aumenta la coherencia y la satisfacción en la generación de historias con restricciones.
Los LLM destacan en tareas de lenguaje multifacéticas pero a menudo necesitan ayuda con la complejidad. BSM, un programa de LLM, divide las tareas en pasos y parametriza cada uno con indicaciones distintas. Es un enfoque diferente a los enfoques secuenciales anteriores, apuntando a tareas como la evaluación de LLM y la generación de texto restringido que se benefician de la descomposición paralela. Este proceso ofrece una solución valiosa para evaluar LLM en tareas complejas de generación de texto, especialmente en escenarios basados en la planificación y con restricciones, abordando la necesidad de una evaluación holística.
Los LLM destacan en la generación de texto pero necesitan ayuda en tareas complejas y multiobjetivo. Investigadores de la UNC-Chapel Hill y Meta han introducido BSM, un método para abordar estos desafíos. BSM descompone las tareas en sub tareas paralelas utilizando módulos de ramificación, resolución y fusión. Aplicado a la evaluación de respuestas de LLM y la generación de texto restringido, BSM mejora la corrección, la consistencia y la satisfacción de las restricciones en estas tareas, beneficiando a diversos LLMs como LLaMA-2-chat, Vicuna y GPT-4. Ofrece una solución prometedora para mejorar el rendimiento de LLM en tareas de lenguaje intrincadas.
- ZenML para Vehículos Eléctricos De los datos a las predicciones de eficiencia
- ¿Vale la pena la inteligencia artificial generativa considerando su huella ambiental?
- ChatGPT Plus Desata Emocionantes Nuevas Funciones para Entusiastas de los Datos
BSM descompone tareas complejas de lenguaje en tres módulos: ramificación, resolución y fusión. Aplicado a la evaluación de respuestas de LLM y la generación de texto restringido, BSM mejora la corrección y consistencia, y reduce los sesgos. Mejora el acuerdo humano-LLM hasta en un 26% y aumenta la satisfacción de las restricciones en un 12%. BSM es un enfoque versátil y basado en la descomposición que se puede aplicar a diversos LLMs, lo que lo convierte en una opción prometedora para mejorar la evaluación de LLM en diferentes tareas y escalas.
BSM mejora el acuerdo entre LLM y humano, logrando una mejora de 12 puntos para LLaMA-2-70B-chat en preguntas de turno 1 y turno 2. Supera a la Auto-Consistencia y reduce los sesgos en un 34% en sesgo de posición y sesgo de longitud. BSM permite que modelos de código abierto más débiles como LLaMA-2 compitan con GPT-4. El rendimiento de BSM se extiende a través de diferentes dominios, igualando o acercándose a GPT-4 en diferentes categorías, mejorando las puntuaciones de acuerdo y reduciendo los sesgos. También destaca en la evaluación de preguntas basadas en referencias, superando a LLaMA-2-70B-chat y GPT-4 en clases como Matemáticas, mejorando las puntuaciones de acuerdo y mitigando el sesgo de posición.
El método BSM aborda desafíos críticos en la evaluación de LLM y la generación de texto, mejorando la coherencia, la planificación y la descomposición de tareas. Los módulos de ramificación, resolución y fusión de BSM mejoran la evaluación de respuestas de LLM y la generación de texto restringido, lo que conduce a una mayor corrección, consistencia y acuerdo entre humano y LLM. BSM también mitiga los sesgos, mejora la coherencia de las historias y aumenta la satisfacción de las restricciones. Demuestra ser efectivo en diferentes LLMs y dominios, incluso superando a GPT-4 en diversas categorías. BSM es un enfoque versátil y prometedor para mejorar el rendimiento de LLM en múltiples tareas.
Consulta el artículo. Todo el crédito de esta investigación va para los investigadores de este proyecto. Además, no olvides unirte a nuestra comunidad de más de 32 mil en nuestro SubReddit de ML, nuestra comunidad de más de 40 mil en Facebook, nuestro canal de Discord, y nuestro boletín de noticias por correo electrónico, donde compartimos las últimas noticias de investigación de IA, proyectos de IA interesantes y más.
Si te gusta nuestro trabajo, te encantará nuestro boletín informativo..
También estamos en Telegram y WhatsApp.
La publicación Investigadores de Meta y UNC-Chapel Hill presentan Branch-Solve-Merge: un programa revolucionario que mejora el rendimiento de los modelos de lenguaje grandes en tareas complejas de lenguaje apareció originalmente en MarkTechPost.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Investigadores de Stanford y UT Austin proponen Aprendizaje de Preferencia Contrastiva (APC) un método sencillo de Aprendizaje por Reforzamiento (RL) que no necesita RL y funciona con MDPs arbitrarios y datos fuera de política.
- Impresión bajo demanda envío directo monetiza tu pasión por el arte
- ¿Qué tan efectivas son las autoexplicaciones de modelos de lenguaje grandes como ChatGPT en el análisis de sentimientos? Un análisis exhaustivo de rendimiento, costo e interpretabilidad.
- Desbloqueando la Composicionalidad Sistemática en Redes Neuronales Un Avance con el Enfoque de Meta-Aprendizaje para la Composicionalidad (MLC)
- Casos de uso del clasificador de dos cabezas
- Investigadores de CMU y NYU proponen LLMTime un método de inteligencia artificial para la predicción de series temporales de cero disparo con modelos de lenguaje grandes (LLMs)
- Jugabilidad Reinventada La Revolución de la Inteligencia Artificial