Cómo crear el Chatbot LLaMa 2 con Gradio y Hugging Face en Free Colab.
Crear el Chatbot LLaMa 2 con Gradio y Hugging Face en Free Colab.
¡Gracias a Gradio, puedes construir la interfaz de usuario del chatbot en una sola línea de código!
![Imagen creada por el autor con Leonardo.ai. Indicación: “Una persona vestida con ropa tradicional peruana, teniendo una conversación profunda con una llama inteligente, con los Andes peruanos de fondo.”](https://miro.medium.com/v2/resize:fit:640/format:webp/1*vDeolFWlmG1SPABTrxIfwQ.jpeg)
El panorama de los modelos de lenguaje de código abierto de gran tamaño es fascinante.
En el momento de escribir este artículo, los modelos LLaMa 2 están recibiendo mucha atención. Por lo tanto, vale la pena aprender cómo interactuar con estos modelos.
En este artículo, aprenderás cómo construir un chatbot con la interfaz de Gradio ChatInterface
y Hugging Face. ¡Y podrás ejecutar el código en el cuaderno gratuito de Colab!
Como seguiremos todos los pasos detalladamente, este tutorial es apto para principiantes. Pero también los ingenieros experimentados podrán aprender mucho, ya que hablaremos de tecnologías de vanguardia, como Llama 2.
- Esta investigación de IA revoluciona el diseño del modulador Mach-Zehnder de silicio a través del aprendizaje profundo y algoritmos evolutivos
- Tiempo 100 IA ¿Los más influyentes?
- Python Enumerate() Simplifica el bucle con contadores
Flujo de trabajo
En esta guía paso a paso, seguiremos los siguientes pasos:
- Instalaciones: Comenzaremos configurando nuestro entorno con las bibliotecas requeridas.
- Requisitos previos: Asegurémonos de tener acceso al modelo Llama-2 7B en Hugging Face.
- Carga del modelo y del tokenizador: Obtengamos el modelo y el tokenizador para nuestra sesión.
- Creación del pipeline de Llama: Preparemos nuestro modelo para generar respuestas.
- Formateo de la indicación para Llama 2: Preparemos los mensajes para seguir la estructura de indicación correcta.
- Generación de respuestas de Llama: Creemos una función para obtener respuestas basadas en el historial de chat.
- Interacción con Llama a través de la interfaz de chat de Gradio: Solicitemos respuestas al modelo y exploremos sus capacidades.
Nota: Al final de este artículo, encontrarás todos los enlaces útiles, incluido un cuaderno de Colab listo para usar con el proyecto descrito en este artículo (y una versión en video de esta guía).
¡Sumérgete y diviértete!
Requisitos previos.
Antes de pasar al código, deberás invertir 2 minutos para seguir estos 3 pasos necesarios:
- Asegúrate de haber cambiado el entorno de ejecución de tu Colab a GPU para un rendimiento óptimo. En el menú superior, ve a
Entorno de ejecución -> Cambiar tipo de entorno de ejecución
y selecciona “GPU T4”. - Crea una cuenta en Hugging Face para acceder a…
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Conoce a CityDreamer Un modelo generativo compositivo para ciudades 3D ilimitadas
- Comprendiendo el sesgo algorítmico Tipos, causas y estudios de casos
- El nacimiento de la Ciencia de Datos La primera prueba de hipótesis de la historia e ideas sobre Python
- Quantización de Tensores La Historia No Contada
- ¿Pueden los Transformers aprender a estrategizar?
- Transformando la investigación en Catalyst Conoce a CatBERTa, un modelo de IA basado en Transformers diseñado para la predicción de energía utilizando entradas de texto
- ¿Cómo funciona realmente la Difusión Estable? Una explicación intuitiva