Investigadores de UC Berkeley presentan Gorilla un modelo basado en LLaMA afinado que supera a GPT-4 en la escritura de llamadas a la API.
Investigadores de UC Berkeley presentan Gorilla, un modelo basado en LLaMA que supera a GPT-4 en llamadas a la API.
Un avance reciente en el campo de la Inteligencia Artificial es la introducción de los Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés). Estos modelos nos permiten entender el lenguaje de manera más concisa y, por lo tanto, hacer el mejor uso del Procesamiento del Lenguaje Natural (NLP) y la Comprensión del Lenguaje Natural (NLU). Estos modelos funcionan bien en todas las tareas, incluyendo la resumen de texto, la respuesta a preguntas, la generación de contenido, la traducción de lenguaje, entre otras. Entienden oraciones complejas, incluso textos con razonamiento y lógica, e identifican patrones y relaciones entre los datos.
Aunque los modelos de lenguaje han mostrado un rendimiento increíble y se han desarrollado significativamente en tiempos recientes al demostrar su competencia en una variedad de tareas, aún les resulta difícil utilizar herramientas a través de llamadas a API de manera eficiente. Incluso los famosos LLMs como GPT-4 tienen dificultades para generar argumentos de entrada precisos y frecuentemente recomiendan llamadas a API inapropiadas. Para abordar este problema, investigadores de Berkeley y Microsoft Research han propuesto Gorilla, un modelo basado en LLaMA afinado, que supera a GPT-4 en términos de producción de llamadas a API. Gorilla ayuda a elegir la API adecuada, mejorando la capacidad de los LLMs para trabajar con herramientas externas y llevar a cabo actividades específicas.
El equipo de investigadores también ha creado un conjunto de datos APIBench, que está compuesto por un corpus considerable de APIs con funcionalidad superpuesta. El conjunto de datos se ha creado recopilando hubs de modelos públicos como TorchHub, TensorHub y HuggingFace para sus APIs de ML. Se incluye cada solicitud de API de TorchHub y TensorHub para cada API, y se eligen los 20 mejores modelos de HuggingFace para cada categoría de tarea. Además, se generan diez consultas de usuario ficticias para cada API utilizando el método de autoinstrucción.
- Los 7 mejores libros de Procesamiento del Lenguaje Natural que todo científico de datos debe leer
- Sabemos que las LLM pueden utilizar herramientas, ¿pero sabías que también pueden crear nuevas herramientas? Conoce a las LLM como fabricantes de herramientas (LATM) un sistema de bucle cerrado que permite a las LLM crear sus propias herramientas reutilizables.
- Este artículo de IA propone Retentive Networks (RetNet) como una arquitectura base para modelos de lenguaje grandes logrando paralelismo de entrenamiento, inferencia de bajo costo y buen rendimiento
Utilizando este conjunto de datos APIBench y la recuperación de documentos, los investigadores han afinado Gorilla. Gorilla, el modelo de 7 mil millones de parámetros, supera a GPT-4 en términos de la corrección del funcionamiento de la API y reduce los errores de alucinación. La integración efectiva del recuperador de documentos con Gorilla demuestra la posibilidad de que los LLMs utilicen herramientas de manera más precisa. Las capacidades mejoradas de generación de llamadas a API de Gorilla y su capacidad para modificar la documentación según sea necesario mejoran la aplicabilidad y confiabilidad de los resultados del modelo. Este avance es importante porque permite que los LLMs se mantengan al día con la documentación actualizada regularmente, brindando a los usuarios información más precisa y actual.
Uno de los ejemplos compartidos por los investigadores muestra cómo Gorilla reconoce correctamente las tareas y ofrece resultados de API completamente calificados. Las llamadas a API generadas por los modelos mostraron que GPT-4 produce solicitudes de API para modelos hipotéticos, lo que demuestra una falta de comprensión de la tarea. Claude eligió la biblioteca incorrecta, mostrando una falta de capacidad para reconocer los recursos correctos. Gorilla, en cambio, reconoció correctamente la tarea. Gorilla se diferencia así de GPT-4 y Claude, ya que la creación de llamadas a API es precisa, demostrando tanto su rendimiento mejorado como su comprensión de la tarea.
En conclusión, Gorilla es una adición importante a la lista de modelos de lenguaje, ya que incluso aborda el problema de escribir llamadas a API. Sus capacidades permiten reducir los problemas relacionados con la alucinación y la confiabilidad.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Investigadores de CMU proponen GILL un método de IA para fusionar LLMs con modelos de codificador y decodificador de imágenes
- Búsqueda de similitud, Parte 6 Proyecciones aleatorias con LSH Forest
- Google AI presenta SimPer un marco contrastivo auto-supervisado para aprender información periódica en los datos
- Una nueva investigación de IA de Italia presenta un modelo generativo basado en difusión capaz tanto de la síntesis musical como de la separación de fuentes
- Microsoft y los investigadores de Columbia proponen LLM-AUGMENTER un sistema de inteligencia artificial que aumenta un LLM de caja negra con un conjunto de módulos plug-and-play
- La Fascinante Evolución de la Inteligencia Artificial Generativa
- Enel automatiza la gestión de activos de la red eléctrica a gran escala y la detección de anomalías utilizando Amazon SageMaker