Inmersión profunda en el modelo LSTM-CRF

Explorando a fondo el modelo LSTM-CRF

Con código de PyTorch

En el campo de procesamiento de lenguaje natural en constante evolución, los Transformers han surgido como modelos dominantes, demostrando un rendimiento notable en una amplia gama de tareas de modelado de secuencias, incluyendo etiquetado de partes del discurso, reconocimiento de entidades nombradas y segmentación. Antes de la era de los Transformers, los Campos Aleatorios Condicionales (CRFs) eran la herramienta principal para el modelado de secuencias, específicamente los CRFs de cadena lineal que modelan secuencias como grafos dirigidos, mientras que los CRFs en general se pueden utilizar en grafos arbitrarios.

Este artículo se dividirá de la siguiente manera:

  1. Introducción
  2. Puntuaciones de Emisión y Transición
  3. Función de Pérdida
  4. Estimación eficiente de la función de partición a través del Algoritmo Forward
  5. Algoritmo de Viterbi
  6. Código completo LSTM-CRF
  7. Inconvenientes y Conclusiones

Introducción

La implementación de los CRFs en este artículo se basa en este excelente tutorial. Por favor, tenga en cuenta que definitivamente no es la implementación más eficiente disponible y también carece de capacidad de agrupamiento, sin embargo, es relativamente fácil de leer y entender y debido a que el objetivo de este tutorial es comprender el funcionamiento interno de los CRFs, es perfectamente adecuado para nosotros.

Puntuaciones de Emisión y Transición

En problemas de etiquetado de secuencias, tratamos con una secuencia de elementos de datos de entrada, como las palabras en una oración, donde cada elemento se corresponde con una etiqueta o categoría específica. El objetivo principal es asignar correctamente la etiqueta adecuada a cada elemento individual. Dentro del modelo CRF-LSTM, podemos identificar dos componentes clave para hacer esto: las probabilidades de emisión y transición. Nota: en realidad, trataremos con puntuaciones en el espacio logarítmico en lugar de probabilidades para garantizar estabilidad numérica:

  1. Las puntuaciones de emisión se relacionan con la probabilidad de observar una etiqueta específica para un elemento de datos dado. En el contexto del reconocimiento de entidades nombradas, por ejemplo, cada palabra en una secuencia está afiliada a una de tres etiquetas: Comienzo de una entidad (B), Palabra intermedia de una entidad (I) o una palabra fuera de cualquier entidad (O). Las probabilidades de emisión cuantifican la probabilidad de que una palabra específica esté asociada con una etiqueta particular. Esto se expresa matemáticamente como P(y_i | x_i), donde y_i denota la etiqueta y x_i representa…

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Conozca Prompt Diffusion Un marco de inteligencia artificial para permitir el aprendizaje en contexto en modelos generativos basados en difusión

Los modelos de lenguaje grandes de última generación (LLMs), incluyendo BERT, GPT-2, BART, T5, GPT-3 y GPT-4, han sid...

Aprendizaje Automático

Conoce a FastSAM La solución revolucionaria en tiempo real que logra una segmentación de alto rendimiento con una carga computacional mínima.

El Modelo Segment Anything (SAM) es una propuesta más reciente en el campo. Es un concepto fundamental en la visión q...

Inteligencia Artificial

La Carrera para Regular la Inteligencia Artificial

Por qué Europa tiene ventaja sobre América y China.

Inteligencia Artificial

Holograma permite que Marcos de Filipinas hable en Singapur mientras visita Estados Unidos.

Alrededor de una hora después de pronunciar un discurso en California el miércoles, el presidente de Filipinas, Ferdi...

Inteligencia Artificial

Este artículo sobre IA revela Cómo los modelos de lenguaje grandes se comparan con los motores de búsqueda en eficiencia de verificación de hechos

Investigadores de diferentes universidades comparan la eficacia de los modelos de lenguaje (LLMs) y los motores de bú...