Utilizando y mezclando modelos de Hugging Face con Gradio 2.0
Usando modelos de Hugging Face con Gradio 2.0.
Publicado en el blog de Gradio .
El Hugging Face Model Hub cuenta con más de 10,000 modelos de aprendizaje automático presentados por usuarios. Encontrarás todo tipo de modelos de procesamiento del lenguaje natural que, por ejemplo, traducen entre finlandés e inglés o reconocen el habla en chino. Recientemente, el Hub también se ha expandido para incluir modelos de clasificación de imágenes y procesamiento de audio.
Hugging Face siempre ha trabajado para hacer que los modelos sean accesibles y fáciles de usar. La biblioteca transformers
permite cargar un modelo en unas pocas líneas de código. Una vez que se carga un modelo, se puede utilizar para hacer predicciones sobre datos nuevos de forma programática. ¡Pero no solo los programadores están utilizando modelos de aprendizaje automático! Un escenario cada vez más común en el aprendizaje automático es mostrar modelos a equipos interdisciplinarios o permitir que personas no programadoras utilicen modelos (para ayudar a descubrir sesgos, puntos de falla, etc.).
La biblioteca Gradio permite a los desarrolladores de aprendizaje automático crear demostraciones y interfaces gráficas de usuario a partir de modelos de aprendizaje automático de manera muy sencilla, y compartirlas de forma gratuita con tus colaboradores tan fácilmente como compartir un enlace de Google Docs. Ahora, nos complace compartir que la biblioteca Gradio 2.0 te permite cargar y utilizar casi cualquier modelo de Hugging Face con una interfaz gráfica de usuario en solo 1 línea de código . Aquí tienes un ejemplo:
- Transformadores de oraciones en el Hugging Face Hub
- Implementa modelos de Hugging Face fácilmente con Amazon SageMaker
- Bienvenido spaCy al Hugging Face Hub
De forma predeterminada, esto utiliza la API de inferencia alojada de HuggingFace (puedes proporcionar tu propia clave de API o utilizar el acceso público sin una clave de API), o también puedes ejecutar pip install transformers
y ejecutar los cálculos del modelo localmente si así lo deseas.
¿Deseas personalizar la demostración? Puedes anular cualquiera de los parámetros predeterminados de la clase Interface pasando tus propios parámetros:
¡Pero espera, hay más! Con 10,000 modelos ya en Model Hub, vemos los modelos no solo como piezas de código independientes, sino como piezas de lego que se pueden componer y mezclar para crear aplicaciones y demostraciones más sofisticadas.
Por ejemplo, Gradio te permite cargar múltiples modelos en paralelo (imagina que quieres comparar 4 modelos diferentes de generación de texto de Hugging Face para ver cuál es el mejor para tu caso de uso):
O poner tus modelos en serie . Esto facilita la creación de aplicaciones complejas construidas a partir de múltiples modelos de aprendizaje automático. Por ejemplo, aquí podemos construir una aplicación para traducir y resumir artículos de noticias en finlandés en 3 líneas de código:
Incluso puedes mezclar múltiples modelos en serie comparándolos entre sí en paralelo (¡te dejamos probar eso tú mismo!). Para probar cualquiera de estas funcionalidades, simplemente instala Gradio ( pip install gradio
) y elige un modelo de Hugging Face que quieras probar. Comienza a construir con Gradio y Hugging Face 🧱⛏️
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Presentando Optimum El Kit de Herramientas de Optimización para Transformadores a Gran Escala
- Hugging Face y Graphcore se asocian para Transformers optimizados para IPU
- Empezando con Hugging Face Transformers para IPUs con Optimum
- Clasificación de Opiniones con Kili y HuggingFace AutoTrain
- Muestra tus proyectos en Espacios utilizando Gradio
- Almacenando tus Modelos y Conjuntos de Datos en Hugging Face Spaces usando Streamlit
- Afinando CLIP con imágenes y subtítulos de Teledetección (Satélite)