El Orden Importa Cómo la Inteligencia Artificial Lucha con la Inversa
El Orden Importa Cómo la Inteligencia Artificial Lucha con la Inversa
|INTELIGENCIA ARTIFICIAL| GRANDES MODELOS DE LENGUAJE|
Cómo y por qué afecta la maldición inversa a los grandes modelos de lenguaje
Los grandes modelos de lenguaje han arrasado en el mundo. Cada día parecen mostrar mejores y mejores capacidades, pero ¿no tienen limitaciones? Parecería que no, sin embargo, en algunos casos, logran fallar.
Lo obvio no es tan fácil.
Nos hemos acostumbrado al rendimiento increíble de los modelos capaces de generar código o texto complejo con una velocidad increíble, y algunos investigadores han sugerido que incluso podrían ser conscientes.
Pero también existen informes en los que los grandes modelos de lenguaje son capaces de fallar espectacularmente. En algunos estudios anteriores, los autores han señalado que hay algunas instancias de programación con las que los modelos no pueden lidiar. O luchan con el sarcasmo (para ser justos, varios humanos también lo hacen).
- Investigadores de Microsoft presentan Table-GPT Elevando modelos de lenguaje para destacar en la comprensión de tablas bidimensionales y tareas relacionadas.
- Solo usa LLMs si sabes cómo hacer la tarea por ti mismo/a
- ¿Cómo construir una aplicación de búsqueda multi-modal con Chroma?
¿Es divertida la IA? Quizás, un poco
Por qué la IA todavía tiene dificultades con el humor y por qué este es un paso importante
levelup.gitconnected.com
Recientemente, un artículo mostró cómo sorprendentemente los grandes modelos de lenguaje no pueden generalizar en lo que se considera una tarea trivial para los humanos:
Si un humano aprende el hecho de que “Olaf Scholz fue el noveno Canciller de Alemania”, también puede responder correctamente “¿Quién fue el noveno Canciller de Alemania?”. Esta es una forma tan básica de generalización que parece trivial. Sin embargo, demostramos que los modelos de lenguaje auto-regresivos no logran generalizar de esta manera. (fuente)
Si los modelos se entrenan con un texto con la forma “<nombre> es <descripción>”, es posible que el modelo no pueda predecir lo contrario “<descripción> es <nombre>” (o en la forma lógica si A es B, B es A).
![fuente de la imagen: aquí](https://ai.miximages.com/miro.medium.com/v2/resize:fit:640/format:webp/1*v3nrvInkaTwIgi7s3qLk_g.png)
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Explora las capacidades mejoradas de validación de datos de Pydantic V2
- Una guía universal para la ingeniería rápida el Marco de Andamios Contextuales (CSF)
- Las fronteras éticas de la IA generativa Introducción e importancia
- Revolucionando el ajuste fino del modelo de lenguaje logrando ganancias sin precedentes con las incrustaciones ruidosas de NEFTune
- ¿Cómo pueden las representaciones visuales pre-entrenadas ayudar a resolver la manipulación a largo plazo? Conoce Universal Visual Decomposer (UVD) Un método listo para usar para identificar submetas a partir de videos.
- Esta investigación de IA presenta ‘RAFA’ un marco de inteligencia artificial basado en principios para agentes LLM autónomos con eficiencia de muestra demostrable.
- Revolucionando el análisis de documentos conozca DSG, el primer sistema entrenable de principio a fin para la extracción de estructuras jerárquicas