Los investigadores de China presentaron un novedoso paradigma de compresión llamado Transferencia de Conocimiento basada en la Recuperación (RetriKT) revolucionando el despliegue de modelos de lenguaje pre-entrenados a gran escala en aplicaciones del

Investigadores chinos presentan RetriKT, un nuevo paradigma de compresión que revoluciona la implementación de modelos de lenguaje pre-entrenados a gran escala en aplicaciones del conocimiento basadas en la Transferencia de Conocimiento

Las aplicaciones de procesamiento de lenguaje natural (NLP) han mostrado un rendimiento notable utilizando modelos de lenguaje pre-entrenados (PLMs), como BERT/RoBERTa. Sin embargo, debido a su enorme complejidad, estos modelos, que generalmente tienen cientos de millones de parámetros, presentan una dificultad significativa para los investigadores. Por lo tanto, los modelos de lenguaje pre-entrenados a gran escala (PLMs) aún no han alcanzado todo su potencial. Se han propuesto diversas estrategias de compresión de modelos, como compartir pesos, cuantización, poda de redes y destilación de conocimientos, para abordar este problema. Sin embargo, situaciones que requieren grandes tasas de compresión, como la destilación de conocimiento, no son directamente relevantes para estas técnicas de compresión de modelos.

Agregar modelos de asistencia a menudo resulta en un rendimiento peor y más errático cuando esto sucede. Los modelos de lenguaje grandes (LLMs) están cada vez más populares ya que son altamente habilidosos en el lenguaje y se pueden utilizar para diversas actividades posteriores. Por lo tanto, investigar formas de aplicar esta información a modelos a pequeña escala es crucial. Sin embargo, debido a que los LLMs tienen tasas de compresión muy altas, los métodos actuales no son adecuados para comprimirlos. Estudios anteriores han propuesto el uso de LLMs para la transferencia de conocimientos y la ampliación de datos a modelos a pequeña escala, lo que permite que estos últimos muestren un rendimiento mejorado en conjuntos de datos con pocos recursos.

No obstante, los tamaños de parámetros limitados de los modelos a pequeña escala presentan un obstáculo al abordar tareas más difíciles como el benchmark SuperGLUE, lo que hace que retener la información que los LLMs transfieren sea más fácil. Como resultado, es necesario mejorar aún más la ganancia de rendimiento obtenida para los modelos a pequeña escala. Investigadores de la Universidad de Pekín, Meituan, Meta AI, el Laboratorio Clave Nacional de Inteligencia Artificial General, BIGAI y la Universidad Renmin de China proponen un paradigma de compresión revolucionario llamado Transmisión de información basada en recuperación (RetriKT), que tiene como objetivo transmitir eficiente y precisamente la información de los Modelos de Lenguaje Grandes (LLMs) a modelos a pequeña escala. Su método consta de dos pasos principales: primero, se extrae el conocimiento del LLM para crear una base de conocimiento, y luego el modelo a pequeña escala recupera la información pertinente de la base de conocimiento para completar el trabajo.

Para ser más precisos, utilizan el método de ajuste de indicaciones suaves para ajustar un LLM de manera que produzca muestras dentro del dominio. También utilizan la técnica de aprendizaje por refuerzo Proximal Policy Optimization (PPO) para mejorar la calidad de generación. Por último, el modelo a pequeña escala adquiere la capacidad de obtener datos relevantes de la base de conocimiento. Realizan pruebas exhaustivas en trabajos genuinamente difíciles y de pocos recursos tomados de los benchmarks SuperGLUE y GLUE. Los resultados experimentales muestran que al utilizar la información de los LLMs, RetriKT mejora considerablemente el rendimiento del modelo a pequeña escala y supera a enfoques anteriores de destilación de conocimientos de SOTA.

Esto sugiere que el paradigma de transferencia de conocimientos basado en la recuperación para la compresión de modelos severos es práctico y exitoso. A continuación se presenta un resumen de sus contribuciones:

• Transmisión de información basada en recuperación, un nuevo paradigma de compresión que sugieren, que intenta transmitir información de LLMs a modelos a una escala increíblemente pequeña.

• Para mejorar la calidad de generación, construyen cuidadosamente la función de incentivo y proponen el algoritmo de aprendizaje por refuerzo PPO. Este paradigma aborda el problema de obtener una compresión extrema del modelo cuando hay una gran diferencia en el tamaño del modelo.

• A través de pruebas exhaustivas en tareas de pocos recursos de los benchmarks SuperGLUE y GLUE, mejoran la precisión y diversidad del conocimiento recolectado de los LLMs utilizado para la transferencia de conocimientos. Los resultados muestran que al utilizar la información de los LLMs, RetriKT mejora considerablemente el rendimiento de los modelos a pequeña escala y supera a enfoques anteriores de destilación de conocimientos de SOTA.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Girando hacia el futuro La nueva guía de ondas está cambiando la forma en que se transfiere y se manipula los datos.

Los físicos han desarrollado un método para ingeniar el giro electromagnético en metasuperficies, abordando las neces...

Inteligencia Artificial

MusicGen Reimaginado Los avances desconocidos de Meta en la música AI

En febrero de 2023, Google causó sensación con su IA de música generativa MusicLM. En ese momento, dos cosas quedaron...

Inteligencia Artificial

Google Research explora ¿Puede la retroalimentación de IA reemplazar la entrada humana para un aprendizaje por refuerzo efectivo en modelos de lenguaje grandes?

La retroalimentación humana es esencial para mejorar y optimizar los modelos de aprendizaje automático. En los último...

Inteligencia Artificial

10 millones se registran en la aplicación rival de Twitter de Meta, Threads.

La experiencia de microblogging similar a Twitter sugiere que Meta Platforms se ha estado preparando para desafiar di...

Inteligencia Artificial

Desbloqueando la transparencia de la IA Cómo el agrupamiento de características de Anthropic mejora la interpretabilidad de las redes neuronales

En un reciente artículo, “Hacia la monosemanticidad: descomposición de modelos de lenguaje con aprendizaje de d...