Utilizando y mezclando modelos de Hugging Face con Gradio 2.0

Usando modelos de Hugging Face con Gradio 2.0.

Publicado en el blog de Gradio .

El Hugging Face Model Hub cuenta con más de 10,000 modelos de aprendizaje automático presentados por usuarios. Encontrarás todo tipo de modelos de procesamiento del lenguaje natural que, por ejemplo, traducen entre finlandés e inglés o reconocen el habla en chino. Recientemente, el Hub también se ha expandido para incluir modelos de clasificación de imágenes y procesamiento de audio.

Hugging Face siempre ha trabajado para hacer que los modelos sean accesibles y fáciles de usar. La biblioteca transformers permite cargar un modelo en unas pocas líneas de código. Una vez que se carga un modelo, se puede utilizar para hacer predicciones sobre datos nuevos de forma programática. ¡Pero no solo los programadores están utilizando modelos de aprendizaje automático! Un escenario cada vez más común en el aprendizaje automático es mostrar modelos a equipos interdisciplinarios o permitir que personas no programadoras utilicen modelos (para ayudar a descubrir sesgos, puntos de falla, etc.).

La biblioteca Gradio permite a los desarrolladores de aprendizaje automático crear demostraciones y interfaces gráficas de usuario a partir de modelos de aprendizaje automático de manera muy sencilla, y compartirlas de forma gratuita con tus colaboradores tan fácilmente como compartir un enlace de Google Docs. Ahora, nos complace compartir que la biblioteca Gradio 2.0 te permite cargar y utilizar casi cualquier modelo de Hugging Face con una interfaz gráfica de usuario en solo 1 línea de código . Aquí tienes un ejemplo:

De forma predeterminada, esto utiliza la API de inferencia alojada de HuggingFace (puedes proporcionar tu propia clave de API o utilizar el acceso público sin una clave de API), o también puedes ejecutar pip install transformers y ejecutar los cálculos del modelo localmente si así lo deseas.

¿Deseas personalizar la demostración? Puedes anular cualquiera de los parámetros predeterminados de la clase Interface pasando tus propios parámetros:

¡Pero espera, hay más! Con 10,000 modelos ya en Model Hub, vemos los modelos no solo como piezas de código independientes, sino como piezas de lego que se pueden componer y mezclar para crear aplicaciones y demostraciones más sofisticadas.

Por ejemplo, Gradio te permite cargar múltiples modelos en paralelo (imagina que quieres comparar 4 modelos diferentes de generación de texto de Hugging Face para ver cuál es el mejor para tu caso de uso):

O poner tus modelos en serie . Esto facilita la creación de aplicaciones complejas construidas a partir de múltiples modelos de aprendizaje automático. Por ejemplo, aquí podemos construir una aplicación para traducir y resumir artículos de noticias en finlandés en 3 líneas de código:

Incluso puedes mezclar múltiples modelos en serie comparándolos entre sí en paralelo (¡te dejamos probar eso tú mismo!). Para probar cualquiera de estas funcionalidades, simplemente instala Gradio ( pip install gradio ) y elige un modelo de Hugging Face que quieras probar. Comienza a construir con Gradio y Hugging Face 🧱⛏️

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Aplicación de Smartphone aumenta la seguridad en la cirugía de hígado

Un equipo internacional de investigadores desarrolló una aplicación para smartphones que proporciona un puntaje de ri...

Aprendizaje Automático

Redes Neuronales con Paso de Mensajes Retrasado y Reconfiguración Dinámica

Esta publicación fue coescrita con Francesco Di Giovanni y Ben Gutteridge y se basa en el artículo de B. Gutteridge e...

Inteligencia Artificial

Cuando la visión por computadora funciona más como un cerebro, ve más como lo hacen las personas.

Entrenar redes neuronales artificiales con datos de cerebros reales puede hacer que la visión por computadora sea más...

Inteligencia Artificial

Generación mejorada por recuperación (RAG) De la teoría a la implementación de LangChain

Ejemplo de implementación de Generación con Recuperación Aumentada (RAG) en Python con LangChain, OpenAI y Weaviate

Ciencias de la Computación

Cómo la I.A. está ayudando a los arquitectos a cambiar el diseño de los lugares de trabajo.

Con una mayor cantidad de trabajadores híbridos y nuevas necesidades de oficina, empresas como Zaha Hadid Architects ...