Un punto de entrada a HuggingFace

Una introducción a HuggingFace

Una guía paso a paso de los conceptos básicos para principiantes

Imagen de unsplash

HuggingFace puede ser complejo y complicado si no sabes por dónde empezar a aprenderlo. Un punto de entrada en el repositorio de HuggingFace son los scripts run_mlm.py y run_clm.py.

En este artículo, vamos a revisar el script run_mlm.py. Este script elige un modelo de lenguaje enmascarado de HuggingFace y lo ajusta finamente en un conjunto de datos (o lo entrena desde cero). Si eres un principiante y tienes muy poca experiencia con los códigos de HuggingFace, este artículo te ayudará a comprender los conceptos básicos.

Elegiremos un modelo de lenguaje enmascarado, cargaremos un conjunto de datos de HuggingFace y ajustaremos el modelo en el conjunto de datos. Al final, evaluaremos el modelo. Todo esto es para comprender la estructura del código, por lo que no nos enfocaremos en ningún caso de uso específico.

¡Empecemos!

Unas pocas palabras sobre el ajuste fino

El ajuste fino es una técnica común en el aprendizaje profundo para tomar un modelo de red neuronal pre-entrenado y modificarlo para adaptarlo mejor a un nuevo conjunto de datos o tarea.

El ajuste fino funciona bien cuando tu conjunto de datos no es lo suficientemente grande como para entrenar un modelo profundo desde cero. Por lo tanto, partes de un modelo base ya aprendido.

En el ajuste fino, tomas un modelo pre-entrenado en una fuente de datos grande (por ejemplo, ImageNet para imágenes o BooksCorpus para PLN), luego continúas entrenándolo en tu conjunto de datos para adaptar el modelo a tu tarea. Esto requiere menos datos adicionales y épocas de entrenamiento que hacerlo desde pesos aleatorios.

Ajuste Fino en HuggingFace

HuggingFace (HF) tiene muchas funciones incorporadas que nos permiten ajustar finamente un modelo pre-entrenado en pocas líneas de código. Los pasos principales son los siguientes:

  1. cargar el modelo pre-entrenado
  2. cargar el tokenizador pre-entrenado
  3. cargar el conjunto de datos que deseas utilizar para el ajuste fino
  4. tokenizar el conjunto de datos anterior utilizando el tokenizador
  5. utilizar el objeto Trainer para entrenar el modelo pre-entrenado en el conjunto de datos tokenizado

Veamos cada paso en código. De manera intencional, vamos a omitir muchos detalles para dar una visión general de cómo se ve la estructura general.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Ciencia de Datos

Series de tiempo para el cambio climático Pronóstico de demanda origen-destino

La minería de datos de vehículos en movimiento es una tarea clave en los sistemas de transporte inteligentes. Los dat...

Inteligencia Artificial

Conoce DISCO Una novedosa técnica de IA para la generación de bailes humanos

La inteligencia artificial generativa ha despertado un gran interés en la comunidad de la visión por computadora. Los...

Noticias de Inteligencia Artificial

¡No más trampas! ¡Sapia.ai detecta respuestas generadas por inteligencia artificial en tiempo real!

En un emocionante avance, Sapia.ai ha presentado una nueva función que puede identificar y marcar respuestas creadas ...

Inteligencia Artificial

Desbloquea el avance de la comprensión de video de IA con MM-VID para GPT-4V(isión)

En todo el mundo, las personas crean una gran cantidad de videos todos los días, incluyendo transmisiones en vivo gen...

Inteligencia Artificial

Científicos imprimen en 3D folículos pilosos en piel cultivada en laboratorio

Un equipo liderado por científicos del Instituto Politécnico de Rensselaer ha impreso en tres dimensiones (3D) folícu...

Inteligencia Artificial

La Distribución de SageMaker está ahora disponible en Amazon SageMaker Studio

SageMaker Distribution es una imagen preconstruida de Docker que contiene muchos paquetes populares para el aprendiza...