Tutorial de programación de una red neuronal Estilo vintage
Tutorial de programación de una red neuronal con un toque vintage
Matemáticas subyacentes de las redes neuronales al estudiar el camino de nuestros predecesores
Uno de los primeros en describir las redes neuronales fue el neurofisiólogo Warren McCulloch y el matemático Walter Pitts, como un modelo para los cerebros biológicos.
En 1959, Bernard Widrow y Marcian Hoff de Stanford adaptaron la idea para crear MADALINE, la primera red neuronal puesta en producción para eliminar los ecos en las líneas telefónicas. ¡Todavía se utiliza hoy en día! (Historia de las redes neuronales de Stanford).
![Crédito de la imagen: Ilustración creada por el autor en Canva con imágenes de Dall-E.](https://ai.miximages.com/miro.medium.com/v2/resize:fit:640/format:webp/1*Vry0Tmuy4kw2kAp3X8A1hA.png)
Los tiempos cambian (Abstracción)
El código, las herramientas, las plataformas y los métodos relacionados disponibles para Widrow no son el código, las herramientas, las plataformas y los métodos relacionados que tenemos hoy en día. Una red neuronal relativamente simple hoy en día solo requiere unas pocas líneas de código.
Por lo tanto, muchos, o tal vez la mayoría, de los tutoriales se centran en un enfoque mucho más simple. Estos enfoques más simples aprovechan bibliotecas de software altamente desarrolladas y bien diseñadas llamadas paquetes.
- Esta investigación de IA de la Universidad de Hong Kong y el Grupo Alibaba revela ‘LivePhoto’ un avance en la animación de video controlada por texto y personalización de la intensidad del movimiento.
- (Note ‘Inpainting’ is translated as ‘relleno de imágenes’ which means ‘image filling’)
- Las investigaciones antropogénicas recientes revelan que puedes aumentar la capacidad de recuerdo de los LLMs en un 70% con una sola adición a tu estímulo Desatando el poder de Claude 2.1 a través de una motivación estratégica.
El uso de estos paquetes a menudo se llama enfoques abstractos porque ocultan gran parte de la complejidad subyacente y las matemáticas de las redes neuronales. Como resultado, los usuarios pueden centrarse más en el diseño e implementación de la arquitectura de la red en lugar de verse obstaculizados por los detalles computacionales de nivel inferior.
Las compensaciones + Desventajas
Pero en el proceso de aprendizaje, eso presenta una compensación. Esas abstracciones pueden dificultar el aprendizaje completo, la comprensión y el aprecio de las matemáticas subyacentes y otros principios relacionados que realmente impulsan y permiten una llamada red neuronal artificial. Este tutorial busca revelar parcialmente esas matemáticas subyacentes.
Bienvenido
Bienvenido a este completo tutorial sobre redes neuronales, una versátil clase de modelos de aprendizaje automático. Las redes neuronales tienen una amplia gama de aplicaciones, incluyendo regresión, clasificación y generación de salidas únicas, como se ve en los modelos de IA generativa. Son el pilar de muchas aplicaciones AI y ML innovadoras, como el reconocimiento de imágenes, la interpretación de textos y los coches autónomos. En esta lección del artículo, exploraremos los fundamentos básicos de las redes neuronales.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Aprendizaje por Refuerzo Conveniente con Stable-Baselines3
- Conoce a Gemini el modelo de IA más grande y poderoso de Google
- ¡La Bendición de la Dimensionalidad?! (Parte 1)
- Investigadores del MIT y de FAIR Meta revelan RCG (Generación de imágenes condicionadas por la representación) un innovador marco de IA en la generación de imágenes sin condiciones de clase.
- Referencia de Benchmark temporal
- Crea relaciones de muchos a uno entre columnas en una tabla sintética con UDFs de PySpark
- IA generativa 2024 y más allá Un vistazo al futuro