GPT – Explicado de manera intuitiva y exhaustiva
GPT - Una explicación intuitiva y exhaustiva
Procesamiento del Lenguaje Natural | Aprendizaje Automático | Chat GPT
Explorando la arquitectura de los Transformers Generativos Previo al Entrenamiento de OpenAI.
![“Experto en Mezclas” por el autor utilizando MidJourney. Todas las imágenes son del autor, salvo que se especifique lo contrario.](https://ai.miximages.com/miro.medium.com/v2/resize:fit:640/format:webp/1*MYxHr82xEt9YVntR2_c1Ag.jpeg)
En este artículo exploraremos la evolución de los modelos GPT de OpenAI. Hablaremos brevemente sobre el transformer, describiremos las variaciones del transformer que dieron lugar al primer modelo GPT, luego pasaremos por GPT1, GPT2, GPT3 y GPT4 para construir una comprensión conceptual completa del estado del arte.
¿Para quién es útil? Cualquier persona interesada en el procesamiento del lenguaje natural (NLP, por sus siglas en inglés) o los avances en IA de vanguardia.
¿Qué tan avanzado es este artículo? No es un artículo complejo, principalmente es conceptual. Dicho esto, hay muchos conceptos, por lo que puede parecer intimidante para científicos de datos menos experimentados.
Prerrequisitos: En este artículo hablaré brevemente sobre los transformers, pero puedes consultar mi artículo dedicado al tema para obtener más información.
- Creando Modelos Predictivos Regresión Logística en Python
- Construyendo Chatbots Inteligentes con Streamlit, OpenAI y Elasticsearch
- Curso gratuito de MIT TinyML y cómputo eficiente de aprendizaje profundo
Transformers: Explicados de manera intuitiva y exhaustiva
Explorando la ola moderna del aprendizaje automático: desmontando el transformer paso a paso
towardsdatascience.com
Una breve introducción a los Transformers
Antes de adentrarnos en GPT, quiero explicar brevemente qué es el transformer. En su sentido más básico, el transformer es un modelo de estilo codificador-decodificador.
El codificador convierte una entrada en una representación abstracta que el decodificador utiliza para generar iterativamente la salida.
Tanto el codificador como el decodificador utilizan representaciones abstractas del texto que se crean mediante la auto-atención con múltiples cabezas.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Entendiendo el linaje de datos Desde la fuente hasta el destino
- DESCUBRA ‘DRESS’ Un modelo de lenguaje de visión amplia (LVLM, por sus siglas en inglés) que se alinea e interactúa con los humanos a través de comentarios en lenguaje natural
- Volviendo la primavera AI y OpenAI GPT útiles con RAG en tus propios documentos
- Crea tu propia voz de IA con Voicemod AI
- Una nueva investigación de IA de Japón examina las propiedades mecánicas de las expresiones faciales humanas para entender cómo los androides pueden reconocer las emociones de manera más efectiva.
- Casi todo lo que quieres saber sobre el tamaño de partición de los marcos de datos de Dask
- Optimización por Enjambre de Partículas Procedimiento de Búsqueda Visualizado