Conoce a EAGLE Un nuevo método de aprendizaje automático para decodificación rápida de LLM basado en compresión.

Los Grandes Modelos de Lenguaje (LLMs, por sus siglas en inglés) como ChatGPT han revolucionado el procesamiento del lenguaje natural, mostrando su destreza en varias tareas relacionadas con el lenguaje. Sin embargo, estos modelos luchan con un problema crítico: el proceso de decodificación auto-regresivo, en el que cada token requiere un paso completo hacia adelante. Este cuello de botella computacional es especialmente notable en LLMs con conjuntos de parámetros amplios, obstaculizando las aplicaciones en tiempo real y presentando desafíos para los usuarios con capacidades de GPU limitadas.

Un equipo de investigadores del Vector Institute, la Universidad de Waterloo y la Universidad de Pekín presentó EAGLE (Algoritmo de Extrapolación para una Mayor Eficiencia del Modelo de Lenguaje) para combatir los desafíos inherentes en la decodificación de LLMs. A diferencia de los métodos convencionales ejemplificados por Medusa y Lookahead, EAGLE adopta un enfoque distintivo al centrarse en la extrapolación de vectores de características contextuales de la segunda capa superior. A diferencia de sus predecesores, EAGLE se esfuerza por predecir de manera eficiente los siguientes vectores de características, ofreciendo un avance que acelera significativamente la generación de texto.

En el núcleo de la metodología de EAGLE se encuentra el despliegue de un complemento ligero conocido como el FeatExtrapolator. Entrenado en conjunto con la capa de incrustación congelada del LLM original, este complemento predice la siguiente característica basada en la secuencia de características actuales de la segunda capa superior. El fundamento teórico de EAGLE se basa en la compresibilidad de los vectores de características con el tiempo, allanando el camino para una generación de token acelerada. Cabe destacar el rendimiento sobresaliente de EAGLE; ofrece un aumento de velocidad tres veces mayor en comparación con la decodificación convencional, duplica la velocidad de Lookahead y logra una aceleración 1.6 veces mayor que Medusa. Quizás lo más crucial, mantiene la consistencia con la decodificación convencional, garantizando la preservación de la distribución del texto generado.

https://sites.google.com/view/eagle-llm

La capacidad de EAGLE se extiende más allá de sus capacidades de aceleración. Puede entrenar y probarse en GPUs estándar, lo que lo hace accesible a una base de usuarios más amplia. Su integración sin problemas con diversas técnicas paralelas agrega versatilidad a su aplicación, consolidando aún más su posición como una adición valiosa al conjunto de herramientas para la decodificación eficiente de modelos de lenguaje.

Considera la dependencia del método en el FeatExtrapolator, una herramienta liviana pero poderosa que colabora con la capa de incrustación congelada del LLM original. Esta colaboración predice la siguiente característica en función de la secuencia de características actuales de la segunda capa superior. El fundamento teórico de EAGLE se basa en la compresibilidad de los vectores de características con el tiempo, facilitando un proceso de generación de tokens más eficiente.

https://sites.google.com/view/eagle-llm

Mientras que los métodos de decodificación tradicionales necesitan un paso completo hacia adelante para cada token, la extrapolación a nivel de características de EAGLE ofrece una nueva vía para superar este desafío. La exploración teórica del equipo de investigación culmina en un método que no solo acelera significativamente la generación de texto, sino que también mantiene la integridad de la distribución de los textos generados, un aspecto crítico para mantener la calidad y coherencia de la salida del modelo de lenguaje.

https://sites.google.com/view/eagle-llm

En conclusión, EAGLE emerge como un faro de esperanza para abordar las ineficiencias de larga data en la decodificación LLM. El equipo de investigación detrás de EAGLE aborda ingeniosamente el problema central de la generación auto-regresiva, introduciendo un método que no solo acelera drásticamente la generación de texto, sino que también mantiene la consistencia de distribución. En una era en la que la procesamiento de lenguaje natural en tiempo real es altamente demandado, el enfoque innovador de EAGLE lo posiciona como un líder, cerrando la brecha entre capacidades de vanguardia y aplicaciones prácticas en el mundo real.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Este artículo de IA de NTU Singapur presenta MeVIS un banco de pruebas a gran escala para la segmentación de video con expresiones de movimiento

La segmentación de video guiada por lenguaje es un campo en desarrollo que se centra en segmentar y rastrear objetos ...

Inteligencia Artificial

Google AI presenta STUDY Un sistema recomendador consciente socialmente y causal-temporal para audiolibros en un entorno educativo

La lectura beneficia enormemente a los estudiantes jóvenes, desde una mejora en las habilidades lingüísticas y de vid...

Inteligencia Artificial

EE. UU. y la UE completan el tan esperado acuerdo sobre el intercambio de datos

El acuerdo pone fin a la incertidumbre legal para Meta, Google y decenas de empresas, al menos por ahora.

Aprendizaje Automático

La caja de voz de Meta la IA que habla todos los idiomas.

En un desarrollo innovador, Meta, la empresa matriz de Facebook, ha presentado su última inteligencia artificial (IA)...

Inteligencia Artificial

Dentro del acalorado centro del pesimismo de la IA

Anthropic, una start-up de inteligencia artificial centrada en la seguridad, está tratando de competir con ChatGPT mi...