Gradient Boosting de la Teoría a la Práctica (Parte 1)
Gradient Boosting Theory to Practice (Part 1)
Comprender las matemáticas detrás del popular algoritmo de aumento de gradiente y cómo utilizarlo en la práctica
![Foto de Jens Lelie en Unsplash](https://miro.medium.com/v2/resize:fit:640/format:webp/1*k4xSRlNaL1T0Cho1uIIYAQ.jpeg)
El aumento de gradiente es una técnica ampliamente utilizada en el aprendizaje automático que se basa en una combinación de reforzamiento y descenso de gradiente.
El reforzamiento es un método de conjunto que combina múltiples aprendices débiles (o aprendices base) para crear un modelo predictivo sólido. Los modelos base se entrenan de forma secuencial, donde cada modelo se enfoca en corregir los errores cometidos por los modelos anteriores.
En el aumento de gradiente, cada modelo base se entrena para predecir los gradientes negativos de la función de pérdida con respecto a las predicciones de los modelos anteriores. Como resultado, agregar el nuevo aprendiz base entrenado al conjunto realiza un paso en la dirección del descenso más pronunciado hacia el mínimo de la pérdida. Este proceso es similar al descenso de gradiente, pero opera en el espacio de funciones en lugar del espacio de parámetros. Por lo tanto, se conoce como descenso de gradiente funcional.
Cuando los aprendices débiles son árboles de decisión, el método resultante se conoce como árboles de decisión aumentados por gradiente (GBDT) o máquina de aumento de gradiente (GBM).
- Deblur AI de Google Afilado de tus imágenes
- GPT-4 Perdió esta Batalla 449 a 28
- Todas tus publicaciones en línea ahora pertenecen a la IA, afirma Google
El aumento de gradiente es uno de los mejores algoritmos que existen hoy en día para tratar con datos estructurales y ofrece resultados de vanguardia en muchos puntos de referencia de clasificación estándar. Junto con el aprendizaje profundo, es uno de los algoritmos más utilizados en competiciones de Kaggle.
El algoritmo de aumento de gradiente fue desarrollado originalmente por Jerome Friedman en 2001 [1]. Desde entonces, se ha extendido a una familia de algoritmos que incluye XGBoost, CatBoost y LightGBM. Estas variantes del algoritmo incorporan diversas mejoras que mejoran aún más el rendimiento y la escalabilidad del aumento de gradiente.
Este artículo cubre en profundidad la teoría y la implementación del aumento de gradiente. En la primera parte del artículo nos enfocaremos en los conceptos teóricos del aumento de gradiente, presentaremos el algoritmo en seudocódigo y discutiremos varias formas de regularizar el modelo. En la segunda parte, exploraremos las clases en Scikit-Learn que implementan el aumento de gradiente y las utilizaremos para resolver diferentes tareas de regresión y clasificación.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Navegando la revolución de la escritura de IA Una reflexión sobre el impacto de ChatGPT
- Explorando instituciones para la gobernanza global de la IA
- Med-PaLM 2 de Google será la IA médica más avanzada
- ¿Por qué DuckDB se está volviendo popular?
- Talmo Pereira sobre el poder de la herramienta de IA SLEAP para estudios biológicos y neurológicos
- Aprende IA Generativa con Google
- Intérprete de código de ChatGPT Todo lo que necesitas saber