Gorilla – Mejorando la capacidad de los modelos de lenguaje grandes para utilizar llamadas a la API

Gorilla - Mejorando modelos de lenguaje grandes para usar llamadas a la API

Foto de Valentin Jorel en Unsplash

Un Modelo Basado en LLaMA Afinado para Mejorar la Precisión y Adaptabilidad de las LLMs en las Llamadas a API

Introducción

Los Modelos de Lenguaje Grandes (LLMs) actualmente están limitados en la cantidad de información que pueden capturar en sus pesos, y además, tienen un contexto limitado. Por lo tanto, la gente comenzó a desarrollar métodos para aumentar las capacidades de estos LLMs permitiéndoles acceder a recursos externos a través de llamadas a API. Por ejemplo, un LLM puede no tener información sobre un evento que ocurrió recientemente, pero con una simple llamada a la API de Wikipedia, podría aprender sobre ese evento y responder preguntas.

(Imagen de Autor)

Muchos desarrolladores están construyendo herramientas que permiten a los LLMs hacer exactamente eso, y una forma sencilla de utilizar este tipo de herramientas es aprovechando bibliotecas como Langchain🦜️🔗 .

Langchain te permite instanciar Agentes, que no son más que un LLM que decide qué herramienta utilizar de las proporcionadas para resolver una determinada tarea. Sin embargo, desafortunadamente, el número de herramientas dentro de Langchain es limitado.

Lo que queremos es tener un modelo que tenga acceso a millones de APIs, y que nos permita utilizar la API correcta en el momento adecuado.

Por ejemplo, una solicitud de entrada de dicho modelo podría ser:

Ayúdame a encontrar una API para convertir el lenguaje hablado en un audio grabado a texto utilizando Torch Hub.

Dada esta solicitud, el modelo necesita entender qué se está preguntando, qué API utilizar y cuál es la entrada requerida para llamar a esta API.

Los autores del artículo “Gorilla: Large Language Model Connected with Massive APIs” crearon un conjunto de datos de API para este propósito. De hecho, el artículo presenta APIBench, un conjunto de datos completo que consiste en las APIs de HuggingFace, TorchHub y TensorHub, para evaluar la capacidad del modelo.

El modelo básico LlaMA fue afinado en este conjunto de datos de API. El conjunto de datos consiste en la API e instrucciones sobre cómo utilizar estas APIs. Se utilizó un enfoque de instrucción auto-generada, mediante…

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Google AI propone PixelLLM un modelo de visión y lenguaje capaz de localización de gran precisión y alineación de visión y lenguaje.

Los Modelos de Lenguaje Grande (LLMs) han utilizado con éxito el poder de los subcampos de Inteligencia Artificial (I...

Inteligencia Artificial

Conozca a NANA, el avatar de recepcionista con inteligencia artificial de Moonshine Studio

Nota del editor: Esta publicación es parte de nuestra serie semanal En el Estudio de NVIDIA, que celebra a artistas d...

Inteligencia Artificial

Premio Gordon Bell otorgado por simulaciones de materiales que logran precisión cuántica a gran escala

Un equipo de investigadores de instituciones estadounidenses e indias fue galardonado con el Premio Gordon Bell 2023 ...

Inteligencia Artificial

¿Puede la inteligencia artificial inventar?

Un grupo de expertos legales están presionando a las agencias de patentes, los tribunales y los formuladores de polít...

Ciencias de la Computación

Matthew Kearney Trayendo la inteligencia artificial y la filosofía al diálogo.

La doble especialización en informática y filosofía tiene como objetivo avanzar en el campo de la ética de la intelig...