¿Es ChatGPT realmente inteligente?
¿ChatGPT es inteligente?
Quizá no…
Si has estado en alguna plataforma de redes sociales en los últimos meses, estoy seguro de que has oído hablar de ChatGPT, Google Bard, Microsoft Bing y una miríada de nuevos modelos de lenguaje. Algunos pueden argumentar que todos estos nuevos modelos son mejores escritores que tú y yo, y su inglés es definitivamente mucho mejor que el mío 🥲 Cada pocos años, alguien inventa algo increíble que te hace reconsiderar por completo lo que es posible. Y en este artículo, hablaremos sobre el tipo de invención que está revolucionando a todo el mundo —sí, lo adivinaste— ChatGPT.
![Imagen generada con el creador de imágenes de Bing. Representación artística de la inteligencia humana.](https://miro.medium.com/v2/resize:fit:640/format:webp/1*GOFz1snAOLf7NwhBE_Tg4w.jpeg)
A medida que dependamos cada vez más de la IA para hacer cosas por nosotros, para tomar decisiones por nosotros, es natural preguntarse si la IA es verdaderamente inteligente en el sentido de que su comprensión del lenguaje refleje la nuestra, o si es fundamentalmente diferente.
Para entender todo esto, primero vamos a ver cómo funciona el modelo Generative-Pretrained Transformer (GPT) y ChatGPT, y luego discutiremos qué significa que una IA sea inteligente.
Entendiendo el modelo GPT
El modelo GPT, propuesto por primera vez por OpenAI en su artículo “Mejorando la comprensión del lenguaje mediante el pre-entrenamiento generativo”, utiliza un pre-entrenamiento no supervisado seguido de un afinamiento supervisado en varias tareas de lenguaje.
- Liberando la Inteligencia Artificial Generativa con VAEs, GANs y Transformadores
- Analizar la infestación de roedores utilizando las capacidades geoespaciales de Amazon SageMaker
- ¿Cómo conseguir un empleo en Ciencia de Datos? [Decodificado en 8 sencillos pasos]
![Fuente: language_understanding_paper.pdf](https://miro.medium.com/v2/resize:fit:640/format:webp/1*-LUuuQgH_JdGu4aSjAl9oQ.png)
La arquitectura del modelo se basa en los Transformers, que han demostrado un rendimiento sólido en tareas como la traducción automática y la generación de documentos. Esta arquitectura de modelo fue presentada por primera vez en el artículo “Attention is all you need” por investigadores de Google. Proporciona una memoria organizada para gestionar las dependencias a largo plazo en el texto, en comparación con las redes neuronales recurrentes y las redes neuronales convolucionales, lo que lleva a un mejor rendimiento en una amplia gama de tareas.
Es un juego de predicción
Puedes pensar en el modelo GPT como una máquina que es buena para adivinar lo que viene a continuación. Por ejemplo, si le das la frase “En lugar de girar a la derecha, ella gira…”, GPT podría predecir “izquierda” o “atrás” u otra palabra como la siguiente. ¿Cómo aprendió esto? A medida que entrenas un modelo con muchos datos de texto, aprende cómo…
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Emily Webber de AWS sobre Preentrenamiento de Modelos de Lenguaje Grandes
- Pensando como un anotador en profundidad Generación de instrucciones para etiquetar conjuntos de datos
- Lanzando un gato entre las palomas? Aumentando la computación humana con modelos de lenguaje grandes
- Configuración de Proyectos en Python Parte VI
- Ojos en el premio Manteniendo el valor empresarial en el núcleo de los programas de datos
- 4 Formas Sencillas de Mejorar al Instante tus Visualizaciones de Datos
- Explorando el mundo de la generación de música con IA