Herramientas y Agentes de HuggingFace Transformers Práctica

Herramientas y Agentes de HuggingFace Transformers

La versión de Transformers es v4.29.0, basada en el concepto de herramientas y agentes, proporciona una API de lenguaje natural sobre Transformers. ¿Cómo se utilizan? ¡Sumergámonos en ellos teniendo el aprendizaje de idiomas como ejemplo de uso!

Foto de Towfiqu barbhuiya en Unsplash

¿Qué son los agentes y las herramientas?

El “agente” aquí es un gran modelo de lenguaje y lo estamos incitando para que tenga acceso a un conjunto específico de herramientas.

Los LLM (Modelos de Lenguaje de Aprendizaje) son buenos para generar pequeñas muestras de código, por lo que esta API aprovecha eso incitando al LLM a dar una pequeña muestra de código que realiza una tarea con un conjunto de herramientas.

Las herramientas son muy simples: son una función única con un nombre y una descripción. Luego, utilizamos las descripciones de estas herramientas para incitar al agente. A través de la incitación, mostramos al agente cómo aprovecharía las herramientas para realizar lo que se solicitó en la consulta. [Fuente]

¿Qué pueden hacer las herramientas? Una herramienta puede responder una pregunta sobre una imagen dada o resumir un texto largo en una o unas pocas frases. Cada herramienta está destinada a centrarse en una tarea muy simple solamente.

Manos a la obra: configuración e inicialización del agente

Ejecutemos la primera celda del cuaderno de Google Colab. Aquí debemos elegir la última versión de Transformers (v4.29.0) y luego, cuando se solicite, ingresar el Token de Acceso de Usuario de HuggingFace.

#@title Configuración
transformers_version = "v4.29.0" #@param ["main", "v4.29.0"] {allow-input: true}
print(f"Configurando todo con la versión {transformers_version} de transformers")
!pip install huggingface_hub>=0.14.1 git+https://github.com/huggingface/transformers@$transformers_version -q diffusers accelerate datasets torch soundfile sentencepiece opencv-python openai
import IPython
import soundfile as sf
def play_audio(audio):
    sf.write("speech_converted.wav", audio.numpy(), samplerate=16000)
    return IPython.display.Audio("speech_converted.wav")
from huggingface_hub import notebook_login
notebook_login()

Una vez que el inicio de sesión sea exitoso, podemos avanzar e inicializar el agente, que es un gran modelo de lenguaje (LLM). Se puede utilizar OpenAI para obtener los mejores resultados, pero también están disponibles modelos de código abierto completos como StarCoder o OpenAssistant. En nuestra demostración, se utilizó un agente StarCoder.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Conoce GlotLID Un modelo de Identificación de Lenguaje (LID) de código abierto que admite 1665 idiomas.

En tiempos recientes, cuando la comunicación a través de las fronteras nacionales está en constante crecimiento, la i...

Inteligencia Artificial

Manteniendo secretos en un mundo cuántico

Los criptógrafos están trabajando en esquemas de cifrado de datos lo suficientemente fuertes como para resistir ataqu...

Inteligencia Artificial

Conoce a Falcon 180B El modelo de lenguaje más grande disponible públicamente con 180 mil millones de parámetros

La demanda de modelos de lenguaje potentes y versátiles se ha vuelto más apremiante en el procesamiento del lenguaje ...

Inteligencia Artificial

La Carrera por Salvar Secretos de las Futuras Computadoras

China, Rusia y Estados Unidos están compitiendo para encontrar formas de prevenir que las futuras computadoras cuánti...

Inteligencia Artificial

Samsung presenta 'Gauss' un nuevo modelo de lenguaje de IA para desafiar el reinado de ChatGPT.

Samsung ha presentado un nuevo modelo de lenguaje basado en inteligencia artificial (IA) llamado Gauss, que se presen...