Conozca LLM-Blender Un Nuevo Marco de Ensamblado para Lograr un Rendimiento Constantemente Superior al Aprovechar las Diversas Fortalezas de Múltiples Modelos de Lenguaje de Código Abierto (LLMs) de Gran Tamaño.

LLM-Blender Nuevo marco de ensamblado de múltiples modelos de lenguaje de código abierto para un rendimiento superior.

Los modelos de lenguaje grandes han mostrado un rendimiento notable en una amplia gama de tareas. Desde producir contenido único y creativo y cuestionar respuestas hasta traducir idiomas y resumir párrafos de texto, los MLL han tenido éxito en imitar a los humanos. Algunos MLL bien conocidos como GPT, BERT y PaLM han estado en los titulares por seguir con precisión las instrucciones y acceder a grandes cantidades de datos de alta calidad. Modelos como GPT4 y PaLM no son de código abierto, lo que impide que cualquiera entienda sus arquitecturas y los datos de entrenamiento. Por otro lado, la naturaleza de código abierto de MLL como Pythia, LLaMA y Flan-T5 brinda una oportunidad a los investigadores para ajustar y mejorar los modelos en conjuntos de datos de instrucciones personalizadas. Esto permite el desarrollo de MLL más pequeños y eficientes como Alpaca, Vicuna, OpenAssistant y MPT.

No hay un único MLL de código abierto que lidere el mercado, y los mejores MLL para varios ejemplos pueden diferir significativamente entre sí. Por lo tanto, para producir continuamente respuestas mejoradas para cada entrada, es esencial ensamblar dinámicamente estos MLL. Los sesgos, errores e incertidumbres pueden reducirse mediante la integración de las contribuciones distintivas de varios MLL, lo que resulta en resultados que se acercan más a las preferencias humanas. Para abordar esto, investigadores del Instituto Allen de Inteligencia Artificial, la Universidad del Sur de California y la Universidad de Zhejiang han propuesto LLM-BLENDER, un marco de ensamblaje que obtiene consistentemente un rendimiento superior utilizando las muchas ventajas de varios modelos de lenguaje grandes de código abierto.

LLM-BLENDER consta de dos módulos: PAIRRANKER y GENFUSER. Estos módulos muestran que el MLL óptimo para diferentes ejemplos puede variar significativamente. PAIRRANKER, el primer módulo, se ha desarrollado para identificar pequeñas variaciones entre las salidas potenciales. Utiliza una técnica avanzada de comparación por pares en la que el texto original y dos salidas candidatas de varios MLL actúan como entradas. Para codificar conjuntamente la entrada y el par candidato, PAIRRANKER utiliza codificadores de atención cruzada como RoBERTa, donde la calidad de los dos candidatos puede ser determinada por PAIRRANKER utilizando esta codificación.

El segundo módulo, GENFUSER, se centra en fusionar los candidatos clasificados en los primeros puestos para generar una salida mejorada. Aprovecha al máximo las ventajas de los candidatos elegidos minimizando sus desventajas. GENFUSER tiene como objetivo desarrollar una salida que sea superior a la de cualquier MLL mediante la fusión de las salidas de varios MLL.

Para la evaluación, el equipo ha proporcionado un conjunto de datos de referencia llamado MixInstruct, que incorpora comparaciones de pares de Oracle y combina varios conjuntos de datos de instrucciones. Este conjunto de datos utiliza 11 MLL de código abierto populares para generar múltiples candidatos para cada entrada en varias tareas de seguimiento de instrucciones. Comprende ejemplos de entrenamiento, validación y prueba con comparaciones de Oracle para la evaluación automática. Estas comparaciones de Oracle se han utilizado para dar a las salidas candidatas una clasificación de verdad fundamental, lo que permite evaluar el rendimiento de LLM-BLENDER y otras técnicas de referencia.

Los hallazgos experimentales han demostrado que LLM-BLENDER funciona mucho mejor en una variedad de parámetros de evaluación que los MLL individuales y las técnicas de referencia. Establece una brecha de rendimiento considerable y muestra que el empleo de la metodología de ensamblaje LLM-BLENDER resulta en una salida de mayor calidad en comparación con el uso de un solo MLL o método de referencia. Las selecciones de PAIRRANKER han superado a los modelos de MLL individuales debido a su mejor rendimiento en métricas basadas en referencia y GPT-Rank. A través de una fusión eficiente, GENFUSER mejora significativamente la calidad de la respuesta utilizando las mejores selecciones de PAIRRANKER.

LLM-BLENDER también ha superado a los MLL individuales, como Vicuna, y ha demostrado un gran potencial para mejorar la implementación y la investigación de MLL mediante el aprendizaje de conjunto.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

¡Desbloquea el poder de GenAI LLMs directamente en tu máquina local!

Introducción Desde el lanzamiento de GenAI LLMs, hemos comenzado a utilizarlos de una forma u otra. La forma más comú...

Ciencia de Datos

Proyecto de Ciencia de Datos de Predicción de Calificación de Películas de Rotten Tomatoes Primer Enfoque

Prediciendo el estado de una película basado en características numéricas y categóricas.

Inteligencia Artificial

Calidad desigual de los parques expuesta a través de las redes sociales y el aprendizaje automático

El estudio utiliza las redes sociales y el aprendizaje automático para mostrar las injusticias ambientales en los par...

Aprendizaje Automático

Una Guía Completa sobre Redes Neuronales Convolucionales

La Inteligencia Artificial ha sido testigo de un crecimiento monumental en la reducción de la brecha entre las capaci...

Inteligencia Artificial

Grandes Modelos de Lenguaje SBERT

No es ningún secreto que los transformers han logrado un avance evolutivo en el PLN (Procesamiento del Lenguaje Natur...