Investigadores de UC Berkeley presentan Gorilla un modelo basado en LLaMA afinado que supera a GPT-4 en la escritura de llamadas a la API.

Investigadores de UC Berkeley presentan Gorilla, un modelo basado en LLaMA que supera a GPT-4 en llamadas a la API.

Un avance reciente en el campo de la Inteligencia Artificial es la introducción de los Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés). Estos modelos nos permiten entender el lenguaje de manera más concisa y, por lo tanto, hacer el mejor uso del Procesamiento del Lenguaje Natural (NLP) y la Comprensión del Lenguaje Natural (NLU). Estos modelos funcionan bien en todas las tareas, incluyendo la resumen de texto, la respuesta a preguntas, la generación de contenido, la traducción de lenguaje, entre otras. Entienden oraciones complejas, incluso textos con razonamiento y lógica, e identifican patrones y relaciones entre los datos.

Aunque los modelos de lenguaje han mostrado un rendimiento increíble y se han desarrollado significativamente en tiempos recientes al demostrar su competencia en una variedad de tareas, aún les resulta difícil utilizar herramientas a través de llamadas a API de manera eficiente. Incluso los famosos LLMs como GPT-4 tienen dificultades para generar argumentos de entrada precisos y frecuentemente recomiendan llamadas a API inapropiadas. Para abordar este problema, investigadores de Berkeley y Microsoft Research han propuesto Gorilla, un modelo basado en LLaMA afinado, que supera a GPT-4 en términos de producción de llamadas a API. Gorilla ayuda a elegir la API adecuada, mejorando la capacidad de los LLMs para trabajar con herramientas externas y llevar a cabo actividades específicas.

El equipo de investigadores también ha creado un conjunto de datos APIBench, que está compuesto por un corpus considerable de APIs con funcionalidad superpuesta. El conjunto de datos se ha creado recopilando hubs de modelos públicos como TorchHub, TensorHub y HuggingFace para sus APIs de ML. Se incluye cada solicitud de API de TorchHub y TensorHub para cada API, y se eligen los 20 mejores modelos de HuggingFace para cada categoría de tarea. Además, se generan diez consultas de usuario ficticias para cada API utilizando el método de autoinstrucción.

Utilizando este conjunto de datos APIBench y la recuperación de documentos, los investigadores han afinado Gorilla. Gorilla, el modelo de 7 mil millones de parámetros, supera a GPT-4 en términos de la corrección del funcionamiento de la API y reduce los errores de alucinación. La integración efectiva del recuperador de documentos con Gorilla demuestra la posibilidad de que los LLMs utilicen herramientas de manera más precisa. Las capacidades mejoradas de generación de llamadas a API de Gorilla y su capacidad para modificar la documentación según sea necesario mejoran la aplicabilidad y confiabilidad de los resultados del modelo. Este avance es importante porque permite que los LLMs se mantengan al día con la documentación actualizada regularmente, brindando a los usuarios información más precisa y actual.

Uno de los ejemplos compartidos por los investigadores muestra cómo Gorilla reconoce correctamente las tareas y ofrece resultados de API completamente calificados. Las llamadas a API generadas por los modelos mostraron que GPT-4 produce solicitudes de API para modelos hipotéticos, lo que demuestra una falta de comprensión de la tarea. Claude eligió la biblioteca incorrecta, mostrando una falta de capacidad para reconocer los recursos correctos. Gorilla, en cambio, reconoció correctamente la tarea. Gorilla se diferencia así de GPT-4 y Claude, ya que la creación de llamadas a API es precisa, demostrando tanto su rendimiento mejorado como su comprensión de la tarea.

En conclusión, Gorilla es una adición importante a la lista de modelos de lenguaje, ya que incluso aborda el problema de escribir llamadas a API. Sus capacidades permiten reducir los problemas relacionados con la alucinación y la confiabilidad.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Noticias de Inteligencia Artificial

Wimbledon introduce comentarios impulsados por inteligencia artificial (IA)

¡Noticias emocionantes para los entusiastas del tenis! Wimbledon, uno de los torneos de tenis más prestigiosos del mu...

Inteligencia Artificial

Una nueva investigación de IA de Italia presenta un modelo generativo basado en difusión capaz tanto de la síntesis musical como de la separación de fuentes

Los seres humanos son capaces de procesar varias fuentes de sonido al mismo tiempo, tanto en términos de composición ...

Noticias de Inteligencia Artificial

Los coches de Mercedes-Benz se vuelven aún más inteligentes con ChatGPT.

Mercedes-Benz, el renombrado fabricante de automóviles de lujo, está llevando los límites de la integración de inteli...

Inteligencia Artificial

El papel proactivo de la IA en el combate a la corrupción en el gobierno

La reciente explosión de modelos generativos de Inteligencia Artificial (IA) ha centrado la atención del mundo en tem...