Transferencia de Aprendizaje para Principiantes
El aprendizaje transferido para principiantes
Una guía práctica para la transferencia de aprendizaje en la clasificación de imágenes
En este artículo, veremos el concepto de transferencia de aprendizaje y veremos un ejemplo en la tarea de clasificación de imágenes.
¿Qué es la transferencia de aprendizaje?
La transferencia de aprendizaje es una técnica en el aprendizaje profundo donde se utilizan modelos pre-entrenados en conjuntos de datos a gran escala para resolver nuevas tareas con datos etiquetados limitados.
Implica tomar un modelo pre-entrenado, que ha aprendido representaciones de características ricas y generalizadas de una tarea de origen, y afinarlo en una tarea objetivo.
Por ejemplo, ImageNet, que es un gran conjunto de datos (14 millones de imágenes de 1000 clases), se utiliza a menudo para entrenar redes neuronales convolucionales grandes como VGGNet o ResNet.
- Los datos son la base de los modelos de lenguaje
- Optimizando los costos computacionales con AutoMix Un enfoque estratégico de IA para aprovechar modelos de lenguaje grandes desde la nube
- Los 10 mejores proyectos de Tableau para Ciencia de datos
Si entrenamos estas redes en ImageNet, estos modelos aprenden a extraer características poderosas e informativas. Llamamos a este entrenamiento pre-entrenamiento y estos modelos están pre-entrenados en ImageNet. Ten en cuenta que están entrenados para la tarea de clasificación de imágenes en ImageNet. Lo llamamos tarea de origen.
Para realizar la transferencia de aprendizaje en una nueva tarea, que llamamos tarea objetivo, en primer lugar, necesitamos tener nuestro conjunto de datos etiquetado, que se llama conjunto de datos objetivo. El conjunto de datos objetivo suele ser mucho más pequeño que el conjunto de datos de origen. Nuestro conjunto de datos de origen era enorme (tenía 14 millones de imágenes).
A continuación, tomamos estos modelos pre-entrenados y eliminamos la capa de clasificación final, y agregamos una nueva capa clasificadora al final y los entrenamos con nuestro propio conjunto de datos objetivo. Durante el entrenamiento, congelamos todas las capas excepto la última capa, como resultado, se entrenan muy pocos parámetros y, por lo tanto, el entrenamiento es rápido. Y ¡voilà!, hemos realizado la transferencia de aprendizaje.
El segundo entrenamiento al que el modelo se somete se llama ajuste fino. Como vimos, durante el ajuste fino, la mayoría de los pesos pre-entrenados se mantienen congelados, y solo las capas finales se ajustan al nuevo conjunto de datos.
Beneficios de la transferencia de aprendizaje
Las principales ventajas de la transferencia de aprendizaje son que te permite aprovechar la experiencia ya desarrollada en modelos pre-entrenados, evitando así entrenar grandes modelos desde cero. También mitiga la necesidad de modelos grandes…
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Mejorando la evaluación del diseño de ingeniería a través de métricas integrales para modelos generativos profundos
- ¿Cuál es el problema de la jarra de agua en IA?
- Análisis Exploratorio de Datos ¿Qué sabemos sobre los canales de YouTube
- Una nueva investigación de aprendizaje profundo identifica un medicamento antipalúdico como posible tratamiento para la osteoporosis
- Esta investigación de IA de China presenta a Character-LLM que enseña a los LLM a actuar como personas específicas como Beethoven, la reina Cleopatra, Julio César, etc.
- Según Aristóteles, ¿Sería capaz ChatGPT de pensar?
- Clasificación de texto simple utilizando Fasttext