El poder de la generación mejorada por la recuperación una comparación entre los LLM base y RAG con Llama2
El poder de la generación mejorada a través de la recuperación una comparación entre LLM base y RAG con Llama2
Un análisis profundo de la adaptación de LLMS pre-entrenados para casos de uso personalizados usando un enfoque RAG, con la integración de LangChain y Hugging Face
Este artículo fue coescrito con Rafael Guedes.
Introducción
Desde el lanzamiento de ChatGPT en noviembre de 2022, los Modelos de Lenguaje Amplios (LLMs, por sus siglas en inglés) se han convertido en un tema candente en la comunidad de IA por sus capacidades para entender y generar texto similar al humano, expandiendo los límites de lo que antes era posible en el procesamiento de lenguaje natural (NLP, por sus siglas en inglés).
Se ha demostrado que los LLMs son versátiles al abordar diferentes casos de uso en diversas industrias, ya que no están limitados a una tarea específica. Pueden adaptarse a varios dominios, lo que los hace atractivos para las organizaciones y la comunidad de investigación. Se han explorado diversas aplicaciones utilizando LLMs, como generación de contenido, chatbots, generación de código, escritura creativa, asistentes virtuales, entre otros.
Otra característica que hace que los LLMs sean tan atractivos es el hecho de que existen opciones de código abierto. Empresas como Meta han puesto a disposición su LLM pre-entrenado (Llama2 🦙) en repositorios como Hugging Face 🤗. ¿Son estos LLMs pre-entrenados lo suficientemente buenos para el caso de uso específico de cada empresa? Ciertamente no.
- Explorando la última frontera Completando el viaje del desafío de #30DayMapChallenge
- Mi cuarta semana del desafío #30DayMapChallenge
- Puntos Calientes en el Espacio-Tiempo Cómo Desbloquear una Nueva Dimensión de Ideas
Las organizaciones podrían entrenar un LLM desde cero con sus propios datos. Pero la gran mayoría de ellas (casi todas) no tendrían ni los datos ni la capacidad informática necesaria para realizar esta tarea. Requiere conjuntos de datos con miles de millones de tokens, miles de GPU y varios meses. Otra opción es utilizar un LLM pre-entrenado y adaptarlo para un caso de uso específico. Hay dos enfoques principales a seguir: ajuste fino y RAGs (Generación Mejorada por Recuperación).
En este artículo, compararemos el rendimiento de un Llama2 pre-entrenado aislado con un Llama2 pre-entrenado integrado en un sistema RAG para responder preguntas sobre las últimas noticias relacionadas con OpenAI. Comenzaremos explicando cómo funcionan los RAGs y la arquitectura de sus submódulos (el recuperador y el generador). Finalizaremos con una implementación paso a paso de cómo podemos construir un sistema RAG para cualquier caso de uso utilizando LangChain 🦜️ y Hugging Face.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 8 Herramientas para Proteger Datos Sensibles de Fugas Inintencionadas
- Construir una máquina GPU vs. Usar la Nube GPU
- Desmitificar valores atípicos en series temporales 2/4
- Maestría de Anotación Integración perfecta de Detectron con LabelImg
- ¿Qué es MLOps?
- ¿Cómo supera Bing Chat a ChatGPT en proporcionar conocimiento en tiempo real actualizado? Conoce la Generación con Recuperación Mejorada (RAG)
- Explorando alternativas de código abierto a los modelos de OpenAI