Herramientas y Agentes de HuggingFace Transformers Práctica
Herramientas y Agentes de HuggingFace Transformers
La versión de Transformers es v4.29.0, basada en el concepto de herramientas y agentes, proporciona una API de lenguaje natural sobre Transformers. ¿Cómo se utilizan? ¡Sumergámonos en ellos teniendo el aprendizaje de idiomas como ejemplo de uso!
![Foto de Towfiqu barbhuiya en Unsplash](https://miro.medium.com/v2/resize:fit:640/format:webp/1*lZyKWzdZcLy4EdeBVdFRWA.jpeg)
¿Qué son los agentes y las herramientas?
El “agente” aquí es un gran modelo de lenguaje y lo estamos incitando para que tenga acceso a un conjunto específico de herramientas.
Los LLM (Modelos de Lenguaje de Aprendizaje) son buenos para generar pequeñas muestras de código, por lo que esta API aprovecha eso incitando al LLM a dar una pequeña muestra de código que realiza una tarea con un conjunto de herramientas.
Las herramientas son muy simples: son una función única con un nombre y una descripción. Luego, utilizamos las descripciones de estas herramientas para incitar al agente. A través de la incitación, mostramos al agente cómo aprovecharía las herramientas para realizar lo que se solicitó en la consulta. [Fuente]
- Error de Calibración Esperado (ECE) – una explicación visual paso a paso
- Monitoreo de datos no estructurados para LLM y NLP
- Aliasing Tu serie de tiempo te está mintiendo
¿Qué pueden hacer las herramientas? Una herramienta puede responder una pregunta sobre una imagen dada o resumir un texto largo en una o unas pocas frases. Cada herramienta está destinada a centrarse en una tarea muy simple solamente.
Manos a la obra: configuración e inicialización del agente
Ejecutemos la primera celda del cuaderno de Google Colab. Aquí debemos elegir la última versión de Transformers (v4.29.0) y luego, cuando se solicite, ingresar el Token de Acceso de Usuario de HuggingFace.
#@title Configuración
transformers_version = "v4.29.0" #@param ["main", "v4.29.0"] {allow-input: true}
print(f"Configurando todo con la versión {transformers_version} de transformers")
!pip install huggingface_hub>=0.14.1 git+https://github.com/huggingface/transformers@$transformers_version -q diffusers accelerate datasets torch soundfile sentencepiece opencv-python openai
import IPython
import soundfile as sf
def play_audio(audio):
sf.write("speech_converted.wav", audio.numpy(), samplerate=16000)
return IPython.display.Audio("speech_converted.wav")
from huggingface_hub import notebook_login
notebook_login()
Una vez que el inicio de sesión sea exitoso, podemos avanzar e inicializar el agente, que es un gran modelo de lenguaje (LLM). Se puede utilizar OpenAI para obtener los mejores resultados, pero también están disponibles modelos de código abierto completos como StarCoder o OpenAssistant. En nuestra demostración, se utilizó un agente StarCoder.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- IA generativa y el futuro de la ingeniería de datos
- La IA también debería aprender a olvidar
- Cómo los bancos deben aprovechar la IA responsable para abordar el crimen financiero
- Investigadores de la Universidad de Pekín presentan FastServe un sistema de servicio de inferencia distribuida para modelos de lenguaje grandes (LLMs).
- Consejos y trucos para integrar la IA en un equipo bien conectado
- Principales 6 usos de la IA en el sector del transporte
- Expande tu negocio con 3 indicaciones de ChatGPT (El método de Alex Hormozi)