Cómo los LLM basados en Transformer extraen conocimiento de sus parámetros

Extracción de conocimiento de los parámetros de los LLM basados en Transformer

En los últimos años, los modelos de lenguaje basados en transformadores (LLMs, por sus siglas en inglés) se han vuelto muy populares debido a su capacidad para capturar y almacenar conocimiento factual. Sin embargo, cómo estos modelos extraen asociaciones factuales durante la inferencia sigue siendo relativamente poco explorado. Un estudio reciente realizado por investigadores de Google DeepMind, la Universidad de Tel Aviv y Google Research tuvo como objetivo examinar los mecanismos internos mediante los cuales los LLMs basados en transformadores almacenan y extraen asociaciones factuales.

El estudio propuso un enfoque de flujo de información para investigar cómo el modelo predice el atributo correcto y cómo las representaciones internas evolucionan a través de las capas para generar resultados. Específicamente, los investigadores se centraron en los LLMs solo decodificadores e identificaron puntos críticos de computación relacionados con las posiciones de relación y sujeto. Lograron esto utilizando una estrategia de “knock out” para bloquear la última posición de que asista a otras posiciones en capas específicas, y luego observando los impactos durante la inferencia.

Para localizar aún más las ubicaciones donde ocurre la extracción de atributos, los investigadores analizaron la información que se propaga en estos puntos críticos y el proceso de construcción de representaciones previas. Lograron esto a través de intervenciones adicionales en el vocabulario y en las subcapas y proyecciones de autoatención multihead (MHSA) y perceptrón multicapa (MLP) del modelo.

Los investigadores identificaron un mecanismo interno para la extracción de atributos basado en un proceso de enriquecimiento del sujeto y una operación de extracción de atributos. Específicamente, la información sobre el sujeto se enriquece en el último token de sujeto a través de las capas iniciales del modelo, mientras que la relación se transmite al último token. Finalmente, el último token utiliza la relación para extraer los atributos correspondientes de la representación del sujeto a través de los parámetros de la cabeza de atención.

Los hallazgos ofrecen ideas sobre cómo se almacenan y extraen asociaciones factuales internamente en los LLMs. Los investigadores creen que estos hallazgos podrían abrir nuevas direcciones de investigación para la localización de conocimiento y la edición de modelos. Por ejemplo, el enfoque del estudio podría utilizarse para identificar los mecanismos internos mediante los cuales los LLMs adquieren y almacenan información sesgada, y desarrollar métodos para mitigar tales sesgos.

En general, este estudio destaca la importancia de examinar los mecanismos internos mediante los cuales los LLMs basados en transformadores almacenan y extraen asociaciones factuales. Al comprender estos mecanismos, los investigadores pueden desarrollar métodos más efectivos para mejorar el rendimiento del modelo y reducir los sesgos. Además, el enfoque del estudio podría aplicarse a otras áreas del procesamiento del lenguaje natural, como el análisis de sentimientos y la traducción de idiomas, para comprender mejor cómo operan internamente estos modelos.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

La Associated Press revela pautas de IA para periodistas

El rápido avance de la inteligencia artificial (IA) ha allanado el camino para su integración en diversas industrias,...

Inteligencia Artificial

Perro robot establece récord mundial de velocidad

El Instituto Avanzado de Ciencia y Tecnología de Corea ha recibido reconocimiento del Guinness World Records por su i...

Inteligencia Artificial

Mejor que GPT-4 para consultas SQL NSQL (Totalmente OpenSource)

Levanta la mano si has intentado usar ChatGPT o cualquiera de los otros LLM para generar consultas SQL. ¡Yo lo he hec...

Ciencia de Datos

El Desafío de Ver la Imagen Completa de la Inteligencia Artificial

Cada vez es más difícil tener conversaciones reflexivas sobre el cambiante (y rápidamente creciente) impacto de la IA...

Inteligencia Artificial

Aterrizaje de Chandrayaan 3 Cómo la IA y los sensores ayudaron en la épica empresa lunar de la ISRO.

En la fascinante expansión de la exploración espacial, cada misión es una apuesta cósmica, cada una un lanzamiento de...

Noticias de Inteligencia Artificial

Microsoft dice que su extraña nueva partícula podría mejorar los ordenadores cuánticos.

Los investigadores de Microsoft dicen haber creado quasipartículas elusivas llamadas modos cero de Majorana, pero los...