Valentía para aprender ML Descifrando la Regularización L1 y L2 (parte 2)

Valentía para aprender ML Descifrando la Regularización L1 y L2 (parte 2) en detalle

Desvelando la intuición detrás de la esparcidad de L1 con multiplicadores de Lagrange

¡Bienvenidos de nuevo a ‘Courage to Learn ML: Revelando la regularización L1 & L2’, Parte Dos. En nuestra discusión anterior, exploramos los beneficios de los coeficientes más pequeños y los medios para obtenerlos a través de técnicas de penalización de pesos. Ahora, en este seguimiento, nuestro mentor y aprendiz se adentrarán aún más en el mundo de la regularización L1 y L2.

Si has estado reflexionando sobre preguntas como estas, estás en el lugar correcto:

  • ¿Cuál es la razón detrás de los nombres de la regularización L1 y L2?
  • ¿Cómo interpretamos el gráfico clásico de la regularización L1 y L2?
  • ¿Qué son los multiplicadores de Lagrange y cómo podemos entenderlos intuitivamente?
  • Aplicando multiplicadores de Lagrange para comprender la esparcidad de L1.

Tu compromiso: los “me gusta”, los comentarios y los seguidores no solo aumentan la moral, ¡sino que impulsan nuestro viaje de descubrimiento! Así que, ¡vamos a sumergirnos!

Foto de Aarón Blanco Tejedor en Unsplash

¿Por qué llaman regularización L1 y L2?

El nombre, regularización L1 y L2, proviene directamente del concepto de las normas Lp. Las normas Lp representan diferentes formas de calcular distancias desde un punto hasta el origen en un espacio. Por ejemplo, la norma L1, también conocida como distancia de Manhattan, calcula la distancia usando los valores absolutos de las coordenadas, como ∣x∣+∣y∣. Por otro lado, la norma L2, o distancia euclidiana, la calcula como la raíz cuadrada de la suma de los valores al cuadrado, es decir sqrt(x² + y²).

En el contexto de la regularización en el aprendizaje automático, estas normas se utilizan para crear términos de penalización que se añaden a la función de pérdida. Puedes pensar en la regularización Lp como la medida de la distancia total entre los pesos del modelo y el origen en un espacio de alta dimensionalidad. La elección de la norma afecta la naturaleza de esta penalización: la norma L1 tiende a hacer que algunos coeficientes sean cero, seleccionando efectivamente características más importantes, mientras que la norma L2 comprime los coeficientes hacia cero, asegurando que ninguna característica individual influya desproporcionadamente en el modelo.

Por lo tanto, la regularización L1 y L2 llevan estos nombres debido a estas normas matemáticas: la norma L1 y la norma L2…

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Drones abordan la seguridad de los tiburones en las playas de Nueva York

Los funcionarios de seguridad en Jones Beach, Nueva York, están utilizando drones para monitorear posibles interaccio...

Inteligencia Artificial

Conoce a Skill-it un marco de habilidades impulsado por datos para comprender y entrenar modelos de lenguaje

Los modelos de lenguaje grandes (LM) son notablemente capaces de crear código fuente, crear obras de arte originales ...

Inteligencia Artificial

¿Reemplazará la IA a la humanidad?

Descubramos si la inteligencia artificial es realmente inteligente y tiene el potencial de superar a los humanos.

Inteligencia Artificial

Evaluar las solicitudes RAG con las RAGAs

Evaluando los componentes de recuperación y generación de un sistema de generación mejorado con recuperación (RAG) po...