Cómo los Modelos de Lenguaje de Gran Escala (LLM) Impulsarán las Aplicaciones del Futuro

'El futuro de las aplicaciones será impulsado por los Modelos de Lenguaje de Gran Escala (LLM).'

La inteligencia artificial generativa y, en particular, su variante enfocada al lenguaje, ChatGPT, está en todas partes. La tecnología de los Modelos de Lenguaje Extensos (LLM, por sus siglas en inglés) jugará un papel significativo en el desarrollo de futuras aplicaciones. Los LLM son muy buenos para entender el lenguaje debido al extenso preentrenamiento que se ha realizado en modelos fundamentales con billones de líneas de texto de dominio público, incluido código. Métodos como el ajuste fino supervisado y el aprendizaje reforzado con retroalimentación humana (RLHF, por sus siglas en inglés) hacen que estos LLM sean aún más eficientes para responder preguntas específicas y conversar con los usuarios. A medida que avanzamos a la siguiente fase de aplicaciones de IA impulsadas por LLM, los siguientes componentes clave serán cruciales para estas aplicaciones de próxima generación. La figura a continuación muestra esta progresión y, a medida que avanzas en la cadena, construyes más inteligencia y autonomía en tus aplicaciones. Veamos estos diferentes niveles.

Llamadas a LLM:

Estas son llamadas directas a modelos de completado o chat por parte de un proveedor de LLM como Azure OpenAI, Google PaLM o Amazon Bedrock. Estas llamadas tienen un inicio muy básico y principalmente utilizan la memoria interna del LLM para producir la salida.

Ejemplo: Pedirle a un modelo básico como “text-davinci” que “cuente un chiste”. Proporcionas muy poco contexto y el modelo se basa en su memoria preentrenada para encontrar una respuesta (resaltado en verde en la figura a continuación, utilizando Azure OpenAI).

Indicaciones:

El siguiente nivel de inteligencia consiste en agregar cada vez más contexto a las indicaciones. Existen técnicas de ingeniería de indicaciones que se pueden aplicar a los LLM y que les permiten proporcionar respuestas personalizadas. Por ejemplo, al generar un correo electrónico para un usuario, se puede utilizar como indicación algún contexto sobre el usuario, compras pasadas y patrones de comportamiento. Los usuarios familiarizados con ChatGPT conocerán diferentes métodos de indicación, como proporcionar ejemplos que el LLM utiliza para construir una respuesta. Las indicaciones aumentan la memoria interna del LLM con contexto adicional. El siguiente es un ejemplo.

Embeddings:

Los embeddings llevan las indicaciones al siguiente nivel al buscar en una base de conocimientos para obtener contexto y agregarlo a la indicación. Aquí, el primer paso es crear una gran base de documentos con texto no estructurado que sea buscable mediante la indexación del texto y la población de una base de datos de vectores. Para esto, se utiliza un modelo de embedding como ‘ada’ de OpenAI, que toma un fragmento de texto y lo convierte en un vector de n dimensiones. Estos embeddings capturan el contexto del texto, por lo que las oraciones similares tendrán embeddings cercanos en el espacio vectorial. Cuando el usuario ingresa una consulta, esa consulta también se convierte en un embedding y se compara con los vectores en la base de datos. De esta manera, obtenemos los 5 o 10 fragmentos de texto que mejor coinciden con la consulta y que forman el contexto. La consulta y el contexto se pasan al LLM para responder la pregunta de manera similar a un humano.

Cadenas:

Hoy en día, las Cadenas son la tecnología más avanzada y madura disponible que se utiliza ampliamente para construir aplicaciones de LLM. Las Cadenas son deterministas, donde una secuencia de llamadas a LLM se une con la salida de una fluyendo hacia uno o más LLM. Por ejemplo, podríamos tener una llamada a LLM que consulte una base de datos SQL y obtenga una lista de correos electrónicos de clientes, y luego enviar esa lista a otro LLM que generará correos electrónicos personalizados para los clientes. Estas cadenas de LLM se pueden integrar en flujos de aplicación existentes para generar resultados más valiosos. Usando cadenas, podríamos agregar llamadas a LLM con entradas externas como llamadas a API e integración con grafos de conocimiento para proporcionar contexto. Además, hoy en día hay varios proveedores de LLM disponibles como OpenAI, AWS Bedrock, Google PaLM, MosaicML, etc., lo que nos permite combinar y mezclar llamadas a LLM en cadenas. Para elementos de cadena con inteligencia limitada, se podría utilizar un LLM inferior como ‘gpt3.5-turbo’, mientras que para tareas más avanzadas se podría utilizar ‘gpt4’. Las cadenas proporcionan una abstracción para los datos, las aplicaciones y las llamadas a LLM.

Agentes:

Los Agentes son un tema de muchos debates en línea, especialmente en lo que respecta a la inteligencia artificial general (AGI, por sus siglas en inglés). Los Agentes utilizan un LLM avanzado como ‘gpt4’ o ‘PaLM2’ para planificar tareas en lugar de tener cadenas predefinidas. Así que ahora, cuando hay solicitudes de usuarios, en función de la consulta, el agente decide qué conjunto de tareas llamar y construye una cadena dinámicamente. Por ejemplo, al configurar un agente con un comando como “notificar a los clientes cuando la tasa APR del préstamo cambie debido a una actualización de regulación gubernamental”. El marco del agente realiza una llamada a LLM para decidir los pasos a seguir o las cadenas a construir. Aquí se involucrará invocar una aplicación que extraiga las últimas tasas APR de sitios web regulatorios, luego una llamada a LLM busca en la base de datos y extrae los correos electrónicos de los clientes afectados y, finalmente, se genera un correo electrónico para notificar a todos.

Pensamientos Finales

LLM es una tecnología altamente evolucionante y mejores modelos y aplicaciones se están lanzando cada semana. LLM a Agentes es la escalera de la inteligencia y a medida que avanzamos, construimos aplicaciones autónomas complejas. Mejores modelos significarán agentes más efectivos y las aplicaciones de próxima generación serán impulsadas por ellos. El tiempo dirá qué tan avanzadas serán las aplicaciones de próxima generación y qué patrones las impulsarán.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Técnicas de muestreo y comparación prácticas, en Python

Estaba poniendo el árbol de Navidad con mi esposa. Fuimos al sótano, cogimos el árbol, lo llevamos arriba y empezamos...

Inteligencia Artificial

Google Research presenta SPAE un AutoEncoder para generación multimodal con Modelos de Lenguaje (LLMs) grandes congelados.

Los Modelos de Lenguaje Grande (LLMs por sus siglas en inglés) han ganado rápidamente una enorme popularidad debido a...

Aprendizaje Automático

Rendimiento sobrehumano en la prueba Atari 100K El poder de BBF - Un nuevo agente de RL basado en valores de Google DeepMind, Mila y la Universidad de Montreal.

El aprendizaje por refuerzo profundo (RL) ha surgido como un algoritmo de aprendizaje automático poderoso para aborda...

Investigación

Sensor de alcohol móvil para la muñeca podría impulsar la investigación sobre el consumo de alcohol.

Científicos de la Universidad Estatal de Pensilvania y de la Universidad de Carolina del Norte crearon un sensor de m...