Gorilla – Mejorando la capacidad de los modelos de lenguaje grandes para utilizar llamadas a la API
Gorilla - Mejorando modelos de lenguaje grandes para usar llamadas a la API
Un Modelo Basado en LLaMA Afinado para Mejorar la Precisión y Adaptabilidad de las LLMs en las Llamadas a API
Introducción
Los Modelos de Lenguaje Grandes (LLMs) actualmente están limitados en la cantidad de información que pueden capturar en sus pesos, y además, tienen un contexto limitado. Por lo tanto, la gente comenzó a desarrollar métodos para aumentar las capacidades de estos LLMs permitiéndoles acceder a recursos externos a través de llamadas a API. Por ejemplo, un LLM puede no tener información sobre un evento que ocurrió recientemente, pero con una simple llamada a la API de Wikipedia, podría aprender sobre ese evento y responder preguntas.
Muchos desarrolladores están construyendo herramientas que permiten a los LLMs hacer exactamente eso, y una forma sencilla de utilizar este tipo de herramientas es aprovechando bibliotecas como Langchain🦜️🔗 .
Langchain te permite instanciar Agentes, que no son más que un LLM que decide qué herramienta utilizar de las proporcionadas para resolver una determinada tarea. Sin embargo, desafortunadamente, el número de herramientas dentro de Langchain es limitado.
Lo que queremos es tener un modelo que tenga acceso a millones de APIs, y que nos permita utilizar la API correcta en el momento adecuado.
- Las 6 mejores herramientas para mejorar tu productividad en Snowflake
- La Evolución de los Datos Tabulares Desde el Análisis hasta la IA
- Este artículo de IA sugiere que los modelos de aprendizaje automático cuántico pueden estar mejor defendidos contra ataques adversarios generados por computadoras clásicas.
Por ejemplo, una solicitud de entrada de dicho modelo podría ser:
Ayúdame a encontrar una API para convertir el lenguaje hablado en un audio grabado a texto utilizando Torch Hub.
Dada esta solicitud, el modelo necesita entender qué se está preguntando, qué API utilizar y cuál es la entrada requerida para llamar a esta API.
Los autores del artículo “Gorilla: Large Language Model Connected with Massive APIs” crearon un conjunto de datos de API para este propósito. De hecho, el artículo presenta APIBench, un conjunto de datos completo que consiste en las APIs de HuggingFace, TorchHub y TensorHub, para evaluar la capacidad del modelo.
El modelo básico LlaMA fue afinado en este conjunto de datos de API. El conjunto de datos consiste en la API e instrucciones sobre cómo utilizar estas APIs. Se utilizó un enfoque de instrucción auto-generada, mediante…
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Taplio La Mejor Herramienta de IA para el Crecimiento en LinkedIn
- XGBoost La Guía Definitiva (Parte 2)
- Las complejidades de la implementación de la resolución de entidades
- La IA generativa impulsa una nueva era en la industria automotriz, desde el diseño y la ingeniería hasta la producción y las ventas
- Visual Effects Multiplier Wylie Co. apuesta todo por el rendimiento de GPU para obtener ganancias de 24 veces
- Superando los límites del análisis de datos con SQL en S4 HANA y Domo Una perspectiva de Aprendizaje Automático
- Top 50 Herramientas de Escritura de IA para Probar (Agosto 2023)