Funciones de Activación y No Linealidad Redes Neuronales 101

Fundamentos de las Funciones de Activación y No Linealidad en Redes Neuronales

Explicando por qué las redes neuronales pueden aprender (casi) cualquier cosa

Foto de Google DeepMind: https://www.pexels.com/photo/an-artist-s-illustration-of-artificial-intelligence-ai-this-image-was-inspired-by-neural-networks-used-in-deep-learning-it-was-created-by-novoto-studio-as-part-of-the-visualising-ai-pr-17483874/

Antecedentes

En mi artículo anterior, presentamos el perceptrón multicapa (MLP), que es simplemente un conjunto de perceptrones interconectados apilados. Le recomiendo encarecidamente que consulte mi publicación anterior si no está familiarizado con el perceptrón y MLP, ya que los discutiremos bastante en este artículo:

Introducción, Perceptrón y Arquitectura: Redes Neuronales 101

Una introducción a las redes neuronales y sus bloques de construcción

levelup.gitconnected.com

A continuación se muestra un ejemplo MLP con dos capas ocultas:

Un perceptrón multicapa básico de dos capas ocultas. Diagrama del autor.

Sin embargo, el problema con el MLP es que solo puede ajustar un clasificador lineal. Esto se debe a que los perceptrones individuales tienen una función escalón como su función de activación, que es lineal:

El perceptrón, que es la red neuronal más simple. Diagrama del autor.

Entonces, aunque apilar nuestros perceptrones puede parecer una red neuronal moderna, ¡sigue siendo un clasificador lineal y no difiere mucho de la regresión lineal regular!

Otro problema es que no es completamente diferenciable en todo el rango del dominio.

Entonces, ¿qué hacemos al respecto?

¡Funciones de activación no lineales!

¿Por qué necesitamos no linealidad?

¿Qué es la linealidad?

Vamos a establecer rápidamente lo que significa linealidad para generar contexto. Matemáticamente, una función se considera lineal si cumple la siguiente condición:

También existe otra condición:

Pero, trabajaremos con la ecuación anterior para esta demostración.

Tomemos este caso muy simple:

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Este artículo de IA presenta RMT una fusión de RetNet y Transformer, abriendo una nueva era en eficiencia y precisión de la visión por computadora.

Después de su debut en NLP, el Transformer se transfirió al ámbito de la visión por computadora, donde demostró ser p...

Inteligencia Artificial

Mirando hacia adentro

La biosensibilidad lleva los diagnósticos médicos a un nivel más profundo.

Inteligencia Artificial

Los hackers exploran formas de abusar de la IA en una importante prueba de seguridad

Casi 2,500 hackers en la aldea de IA de la conferencia DEFCON pasaron este fin de semana investigando y probando algu...