El poder de la generación mejorada por la recuperación una comparación entre los LLM base y RAG con Llama2

El poder de la generación mejorada a través de la recuperación una comparación entre LLM base y RAG con Llama2

Un análisis profundo de la adaptación de LLMS pre-entrenados para casos de uso personalizados usando un enfoque RAG, con la integración de LangChain y Hugging Face

Este artículo fue coescrito con Rafael Guedes.

Introducción

Desde el lanzamiento de ChatGPT en noviembre de 2022, los Modelos de Lenguaje Amplios (LLMs, por sus siglas en inglés) se han convertido en un tema candente en la comunidad de IA por sus capacidades para entender y generar texto similar al humano, expandiendo los límites de lo que antes era posible en el procesamiento de lenguaje natural (NLP, por sus siglas en inglés).

Se ha demostrado que los LLMs son versátiles al abordar diferentes casos de uso en diversas industrias, ya que no están limitados a una tarea específica. Pueden adaptarse a varios dominios, lo que los hace atractivos para las organizaciones y la comunidad de investigación. Se han explorado diversas aplicaciones utilizando LLMs, como generación de contenido, chatbots, generación de código, escritura creativa, asistentes virtuales, entre otros.

Otra característica que hace que los LLMs sean tan atractivos es el hecho de que existen opciones de código abierto. Empresas como Meta han puesto a disposición su LLM pre-entrenado (Llama2 🦙) en repositorios como Hugging Face 🤗. ¿Son estos LLMs pre-entrenados lo suficientemente buenos para el caso de uso específico de cada empresa? Ciertamente no.

Las organizaciones podrían entrenar un LLM desde cero con sus propios datos. Pero la gran mayoría de ellas (casi todas) no tendrían ni los datos ni la capacidad informática necesaria para realizar esta tarea. Requiere conjuntos de datos con miles de millones de tokens, miles de GPU y varios meses. Otra opción es utilizar un LLM pre-entrenado y adaptarlo para un caso de uso específico. Hay dos enfoques principales a seguir: ajuste fino y RAGs (Generación Mejorada por Recuperación).

En este artículo, compararemos el rendimiento de un Llama2 pre-entrenado aislado con un Llama2 pre-entrenado integrado en un sistema RAG para responder preguntas sobre las últimas noticias relacionadas con OpenAI. Comenzaremos explicando cómo funcionan los RAGs y la arquitectura de sus submódulos (el recuperador y el generador). Finalizaremos con una implementación paso a paso de cómo podemos construir un sistema RAG para cualquier caso de uso utilizando LangChain 🦜️ y Hugging Face.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Dentro de Code Llama La entrada de Meta AI en el espacio de Code LLM

La codificación se ha convertido rápidamente en uno de los escenarios de acción más activos para los grandes modelos ...

Inteligencia Artificial

¿Qué tan seguro es el aire de tu oficina? Hay una forma de averiguarlo

Los sensores de calidad del aire interior instalados en edificios comerciales durante la pandemia ahora están resulta...

Noticias de Inteligencia Artificial

Microsoft y OpenAI chocan por la integración de la inteligencia artificial.

En un enfrentamiento entre los titanes de la IA, Microsoft y OpenAI se encuentran en desacuerdo sobre la integración ...

Aprendizaje Automático

Entrena un Modelo de Lenguaje Grande en una sola GPU de Amazon SageMaker con Hugging Face y LoRA.

Esta publicación está coescrita con Philipp Schmid de Hugging Face. Todos hemos escuchado sobre el progreso en el cam...

Inteligencia Artificial

La nueva función de diseño de Amazon Textract introduce eficiencias en tareas de procesamiento de documentos de inteligencia artificial generales y generativos.

Amazon Textract es un servicio de aprendizaje automático (ML) que extrae automáticamente texto, escritura a mano y da...

Inteligencia Artificial

Investigadores de AWS presentan Gemini recuperación rápida pionera de fallos en el entrenamiento de aprendizaje profundo a gran escala

Un equipo de investigadores de la Universidad de Rice y Amazon Web Services ha desarrollado un sistema de entrenamien...