Presentando el Private Hub Una Nueva Forma de Construir con Aprendizaje Automático

Introducing the Private Hub a New Way to Build with Machine Learning.

El aprendizaje automático está cambiando la forma en que las empresas construyen tecnología. Desde impulsar una nueva generación de productos disruptivos hasta habilitar funciones más inteligentes en aplicaciones conocidas que todos usamos y amamos, el ML es el núcleo del proceso de desarrollo.

Pero con cada cambio tecnológico surgen nuevos desafíos.

Aproximadamente el 90% de los modelos de aprendizaje automático nunca llegan a la producción. Las herramientas desconocidas y los flujos de trabajo no estándar ralentizan el desarrollo de ML. Los esfuerzos se duplican ya que los modelos y conjuntos de datos no se comparten internamente, y se crean artefactos similares desde cero en equipos todo el tiempo. Los científicos de datos encuentran difícil mostrar su trabajo técnico a los interesados ​​en el negocio, que luchan por compartir comentarios precisos y oportunos. Y los equipos de aprendizaje automático desperdician tiempo en Docker/Kubernetes y optimizando modelos para la producción.

Con esto en mente, lanzamos el Private Hub (PH), una nueva forma de construir con aprendizaje automático. Desde la investigación hasta la producción, proporciona un conjunto unificado de herramientas para acelerar cada paso del ciclo de vida del aprendizaje automático de manera segura y conforme. PH reúne varias herramientas de ML en un solo lugar, haciendo que la colaboración en el aprendizaje automático sea más simple, divertida y productiva.

En esta publicación del blog, profundizaremos en qué es el Private Hub, por qué es útil y cómo los clientes están acelerando sus hojas de ruta de ML con él.

Lee o siéntete libre de saltar a la sección que despierte 🌟 tu interés:

  1. ¿Qué es el Hugging Face Hub?
  2. ¿Qué es el Private Hub?
  3. ¿Cómo están utilizando las empresas el Private Hub para acelerar su hoja de ruta de ML?

¡Comencemos! 🚀

1. ¿Qué es el Hugging Face Hub?

Antes de sumergirnos en el Private Hub, veamos primero el Hugging Face Hub, que es una parte central del PH.

El Hugging Face Hub ofrece más de 60,000 modelos, 6,000 conjuntos de datos y 6,000 aplicaciones de demostración de ML, todos de código abierto y disponibles públicamente, en una plataforma en línea donde las personas pueden colaborar y construir ML fácilmente. El Hub funciona como un lugar central donde cualquiera puede explorar, experimentar, colaborar y construir tecnología con aprendizaje automático.

En el Hugging Face Hub, podrás crear o descubrir los siguientes activos de ML:

  • Modelos: alberga los últimos modelos de vanguardia para NLP, visión por computadora, habla, series temporales, biología, aprendizaje por refuerzo, química y más.
  • Conjuntos de datos: presenta una amplia variedad de datos para diferentes dominios, modalidades e idiomas.
  • Espacios: aplicaciones interactivas para mostrar modelos de ML directamente en tu navegador.

Cada modelo, conjunto de datos o espacio cargado en el Hub es un repositorio basado en Git, que son lugares controlados por versiones que pueden contener todos tus archivos. Puedes usar los comandos tradicionales de git para extraer, enviar, clonar y/o manipular tus archivos. Puedes ver el historial de confirmaciones de tus modelos, conjuntos de datos y espacios, y ver quién hizo qué y cuándo.

Historial de confirmaciones en un modelo

El Hugging Face Hub también es un lugar central para comentarios y desarrollo en el aprendizaje automático. Los equipos utilizan solicitudes de extracción y discusiones para respaldar revisiones por parte de los compañeros en modelos, conjuntos de datos y espacios, mejorar la colaboración y acelerar su trabajo de ML.

Solicitudes de extracción y discusiones en un modelo

El Hub permite a los usuarios crear Organizaciones, es decir, cuentas de equipo para administrar modelos, conjuntos de datos y espacios de manera colaborativa. Los repositorios de una organización se mostrarán en la página de la organización y los administradores pueden establecer roles para controlar el acceso a estos repositorios. Cada miembro de la organización puede contribuir a modelos, conjuntos de datos y espacios con los permisos adecuados. ¡Aquí en Hugging Face, creemos que tener las herramientas adecuadas para colaborar acelera drásticamente el desarrollo del aprendizaje automático! 🔥

Organización en el Hub de BigScience

Ahora que hemos cubierto lo básico, sumerjámonos en las características específicas de los modelos, conjuntos de datos y espacios alojados en el Hugging Face Hub.

Modelos

El aprendizaje por transferencia ha cambiado la forma en que las empresas abordan los problemas de aprendizaje automático. Tradicionalmente, las empresas necesitaban entrenar modelos desde cero, lo que requiere mucho tiempo, datos y recursos. Ahora, los equipos de aprendizaje automático pueden usar un modelo pre-entrenado y ajustarlo para su propio caso de uso de manera rápida y rentable. Esto acelera drásticamente el proceso de obtener modelos precisos y eficientes.

En el Hub, puedes encontrar más de 60,000 modelos pre-entrenados de código abierto de última generación para NLP, visión por computadora, habla, series temporales, biología, aprendizaje por refuerzo, química y más. Puedes usar la barra de búsqueda o filtrar por tareas, bibliotecas, licencias y otras etiquetas para encontrar el modelo adecuado para tu caso de uso particular:

60,000+ modelos disponibles en el Hub

Estos modelos abarcan 180 idiomas y admiten hasta 25 bibliotecas de ML (incluidas Transformers, Keras, spaCy, Timm y otras), por lo que hay mucha flexibilidad en cuanto al tipo de modelos, idiomas y bibliotecas.

Cada modelo tiene una tarjeta de modelo, es un archivo markdown que contiene una descripción del modelo en sí. Esto incluye para qué está destinado, en qué datos se ha entrenado ese modelo, ejemplos de código, información sobre posibles sesgos y riesgos asociados con el modelo, métricas, investigaciones relacionadas, lo que necesites. Las tarjetas de modelo son una excelente manera de comprender de qué se trata el modelo, pero también son útiles para identificar el modelo preentrenado adecuado como punto de partida para tu proyecto de ML:

Tarjeta de modelo

Además de mejorar la capacidad de descubrimiento y reutilización de los modelos, las tarjetas de modelo también facilitan los procesos de gestión de riesgos de los modelos (MRM). A menudo, se requiere que los equipos de ML proporcionen información sobre los modelos de aprendizaje automático que construyen para que los equipos de cumplimiento puedan identificar, medir y mitigar los riesgos del modelo. A través de las tarjetas de modelo, las organizaciones pueden configurar una plantilla con toda la información requerida y agilizar las conversaciones de MRM entre los equipos de ML y cumplimiento directamente dentro de los modelos.

¡El Hub también proporciona un widget de inferencia para probar fácilmente los modelos directamente desde tu navegador! Es una excelente manera de tener una idea de si un modelo en particular se adapta bien y si es algo en lo que quieres profundizar:

Widget de inferencia

Conjuntos de datos

Los datos son una parte clave en la construcción de modelos de aprendizaje automático; sin los datos adecuados, no obtendrás modelos precisos. El 🤗 Hub alberga más de 6,000 conjuntos de datos de código abierto, listos para usar, para modelos de ML con herramientas de manipulación de datos rápidas, fáciles de usar y eficientes. Al igual que con los modelos, puedes encontrar el conjunto de datos adecuado para tu caso de uso utilizando la barra de búsqueda o filtrando por etiquetas. Por ejemplo, puedes encontrar fácilmente 96 modelos para el análisis de sentimientos filtrando por la tarea “clasificación de sentimientos”:

Conjuntos de datos disponibles para la clasificación de sentimientos

Al igual que los modelos, los conjuntos de datos cargados en el 🤗 Hub tienen tarjetas de conjunto de datos para ayudar a los usuarios a comprender el contenido del conjunto de datos, cómo se debe usar, cómo se creó y conocer consideraciones relevantes para usar el conjunto de datos. Puedes usar el Visor de conjuntos de datos para ver fácilmente los datos y comprender rápidamente si un conjunto de datos en particular es útil para tu proyecto de aprendizaje automático:

Vista previa del conjunto de datos Super Glue

Espacios

Hace unos meses, presentamos una nueva función en el 🤗 Hub llamada Espacios. Es una forma sencilla de construir y alojar aplicaciones de aprendizaje automático. Los espacios te permiten mostrar fácilmente tus modelos de ML a las partes interesadas comerciales y obtener la retroalimentación que necesitas para avanzar en tu proyecto de ML.

Si has estado generando imágenes divertidas con DALL-E mini, entonces has utilizado Espacios. Este espacio muestra el modelo DALL-E mini, un modelo de aprendizaje automático para generar imágenes basadas en indicaciones de texto:

Espacio para DALL-E mini

2. ¿Qué es el Private Hub?

El Private Hub permite a las empresas utilizar el ecosistema completo de Hugging Face en su propio entorno privado y conforme para acelerar el desarrollo de su aprendizaje automático. Reúne herramientas de ML para cada etapa del ciclo de vida de ML en un solo lugar para facilitar la colaboración en ML y aumentar la productividad, al tiempo que ofrece un entorno conforme que las empresas necesitan para construir ML de manera segura:

El Private Hub

Con el Private Hub, los científicos de datos pueden trabajar sin problemas con Transformers, Conjuntos de datos y otras bibliotecas de código abierto con modelos, conjuntos de datos y espacios alojados de forma privada y segura en tus propios servidores, y completar el aprendizaje automático más rápido aprovechando las funciones del Hub:

  • AutoTrain: puedes utilizar nuestra solución de AutoML sin código para entrenar modelos de última generación, ajustados automáticamente, evaluados e implementados en tus propios servidores.
  • Evaluación: evalúa cualquier modelo en cualquier conjunto de datos en el Private Hub con cualquier métrica sin escribir una sola línea de código.
  • Espacios: aloja fácilmente una aplicación de demostración de ML para mostrar tu trabajo de ML a las partes interesadas comerciales, obtener comentarios tempranos y desarrollar más rápido.
  • API de inferencia: cada modelo privado creado en el Private Hub se implementa para inferencia en tu propia infraestructura a través de llamadas API simples.
  • PR y Discusiones: soporta revisiones de pares en modelos, conjuntos de datos y espacios para mejorar la colaboración entre equipos.

Desde la investigación hasta la producción, tus datos nunca abandonan tus servidores. El Private Hub se ejecuta en tu propio servidor conforme. Ofrece funciones de seguridad empresarial como análisis de seguridad, registro de auditoría, SSO y control de acceso para mantener tus modelos y datos seguros.

Ofrecemos opciones flexibles para implementar su Hub Privado en su entorno privado y cumplir con los requisitos, que incluyen:

  • Managed Private Hub (SaaS): se ejecuta en servidores virtuales privados segregados (VPC) propiedad de Hugging Face. Puede disfrutar de la experiencia completa de Hugging Face en su propio Hub privado sin tener que gestionar ninguna infraestructura.

  • On-cloud Private Hub: se ejecuta en una cuenta en la nube en AWS, Azure o GCP propiedad del cliente. Esta opción de implementación le brinda un control administrativo completo de la infraestructura en la nube subyacente y le permite lograr una mayor seguridad y cumplimiento.

  • On-prem Private Hub: implementación local del Hugging Face Hub en su propia infraestructura. Para clientes con reglas de cumplimiento estrictas y / o cargas de trabajo en las que no desean o no se les permite ejecutarse en una nube pública.

Ahora que hemos cubierto los conceptos básicos de lo que es el Hub Privado, veamos cómo las empresas lo están utilizando para acelerar su desarrollo de ML.

3. ¿Cómo están utilizando las empresas el Hub Privado para acelerar su hoja de ruta de ML?

🤗 Transformers es uno de los proyectos de código abierto de mayor crecimiento de todos los tiempos. Ahora ofrecemos más de 25 bibliotecas de código abierto y más de 10,000 empresas están utilizando Hugging Face para construir tecnología con aprendizaje automático.

Siendo el corazón de la comunidad de IA de código abierto, hemos tenido miles de conversaciones con equipos de aprendizaje automático y ciencia de datos, lo que nos ha dado una perspectiva única sobre los problemas y desafíos más comunes a los que se enfrentan las empresas al construir aprendizaje automático.

A través de estas conversaciones, descubrimos que el flujo de trabajo actual para construir aprendizaje automático está roto. Los esfuerzos duplicados, los bucles de retroalimentación deficientes, la alta fricción para colaborar entre equipos, los procesos y herramientas no estándar y la dificultad para optimizar modelos para la producción son comunes y ralentizan el desarrollo de ML.

Construimos el Hub Privado para cambiar esto. Al igual que Git y GitHub cambiaron para siempre la forma en que las empresas construyen software, el Hub Privado cambia la forma en que las empresas construyen aprendizaje automático:

Antes y después de usar el Hub Privado

En esta sección, veremos un ejemplo de demostración de cómo los clientes están aprovechando el PH para acelerar su ciclo de vida de ML. Repasaremos el proceso paso a paso de construir una aplicación de ML para analizar automáticamente informes de analistas financieros 🏦.

Primero, buscaremos un modelo pre-entrenado relevante para nuestro caso de uso y lo ajustaremos con un conjunto de datos personalizado para el análisis de sentimientos. Luego, construiremos una aplicación web de ML para mostrar cómo funciona este modelo a las partes interesadas comerciales. Por último, utilizaremos la API de Inferencia para ejecutar inferencias con una infraestructura que pueda manejar cargas a nivel de producción. Todos los artefactos de esta aplicación de demostración de ML se pueden encontrar en esta organización en el Hub.

Entrenamiento de modelos precisos más rápido

Aprovechando un modelo pre-entrenado del Hub

En lugar de entrenar modelos desde cero, el aprendizaje por transferencia ahora le permite construir modelos más precisos 10 veces más rápido ⚡️ al ajustar modelos pre-entrenados disponibles en el Hub para su caso de uso particular.

Para nuestro ejemplo de demostración, uno de los requisitos para construir esta aplicación de ML para analistas financieros es realizar análisis de sentimientos. Las partes interesadas comerciales desean obtener automáticamente una idea del desempeño de una empresa tan pronto como estén disponibles los documentos financieros e informes de analistas.

Entonces, como primer paso para crear esta aplicación de ML, nos sumergimos en el 🤗 Hub y exploramos qué modelos pre-entrenados están disponibles que podemos ajustar para el análisis de sentimientos. La barra de búsqueda y las etiquetas nos permitirán filtrar y descubrir modelos relevantes muy rápidamente. Muy pronto, nos encontramos con FinBERT, un modelo BERT pre-entrenado en informes corporativos, transcripciones de llamadas de ganancias e informes de analistas financieros:

Modelo Finbert

Clonamos el modelo en nuestro propio Hub Privado, para que esté disponible para otros miembros del equipo. También agregamos la información requerida a la tarjeta del modelo para agilizar el proceso de gestión de riesgos del modelo con el equipo de cumplimiento.

Ajuste fino de un modelo pre-entrenado con un conjunto de datos personalizado

Ahora que tenemos un excelente modelo pre-entrenado para datos financieros, ¡el siguiente paso es ajustarlo usando nuestros propios datos para realizar análisis de sentimientos!

Entonces, primero cargamos un conjunto de datos personalizado para el análisis de sentimientos que construimos internamente con el equipo en nuestro Hub Privado. Este conjunto de datos tiene varias miles de oraciones de noticias financieras en inglés y datos financieros propietarios categorizados manualmente por nuestro equipo según su sentimiento. Estos datos contienen información sensible, por lo que nuestro equipo de cumplimiento solo nos permite cargar estos datos en nuestros propios servidores. Afortunadamente, esto no es un problema, ya que ejecutamos el Hub Privado en nuestra propia instancia de AWS.

Luego, utilizamos AutoTrain para ajustar rápidamente el modelo FinBert con nuestro conjunto de datos personalizado de análisis de sentimientos. Podemos hacer esto directamente desde la página de conjuntos de datos en nuestro Private Hub:

Ajuste fino de un modelo pre-entrenado con AutoTrain

A continuación, seleccionamos “manual” como la opción de modelo y elegimos nuestro modelo clonado de Finbert como el modelo para ajustar fino con nuestro conjunto de datos:

Creando un nuevo proyecto con AutoTrain

Finalmente, seleccionamos el número de modelos candidatos para entrenar con nuestros datos. Elegimos 25 modelos y ¡voilà! Después de unos minutos, AutoTrain ha ajustado automáticamente 25 modelos de finbert con nuestros propios datos de análisis de sentimientos, mostrando las métricas de rendimiento para todos los modelos diferentes 🔥🔥🔥

25 modelos ajustados con AutoTrain

Además de las métricas de rendimiento, podemos probar fácilmente los modelos ajustados utilizando el widget de inferencia directamente desde nuestro navegador para tener una idea de qué tan buenos son:

Probando los modelos ajustados con el widget de inferencia

Demostración fácil de los modelos a las partes interesadas relevantes

Ahora que hemos entrenado nuestro modelo personalizado para analizar documentos financieros, como próximo paso, queremos construir una demostración de aprendizaje automático con Spaces para validar nuestro MVP con nuestras partes interesadas comerciales. Esta aplicación de demostración utilizará nuestro modelo personalizado de análisis de sentimientos, así como un segundo modelo FinBERT que ajustamos fino para detectar declaraciones prospectivas en informes financieros. Esta aplicación de demostración interactiva nos permitirá obtener comentarios más rápidamente, iterar más rápido y mejorar los modelos para que podamos utilizarlos en producción. ✅

En menos de 20 minutos, pudimos construir una aplicación de demostración interactiva que cualquier parte interesada comercial puede probar fácilmente desde sus navegadores:

Espacio para nuestra aplicación de demostración financiera

Si echas un vistazo al archivo app.py, verás que es bastante simple:

Código para nuestra aplicación de demostración de aprendizaje automático

¡Con solo 51 líneas de código, logramos poner en marcha esta aplicación de demostración de aprendizaje automático! 🤯

Escalando inferencias sin involucrar a MLOps

Hasta ahora, nuestras partes interesadas comerciales han proporcionado comentarios excelentes que nos han permitido mejorar estos modelos. Los equipos de cumplimiento evaluaron los riesgos potenciales a través de la información proporcionada a través de las tarjetas de modelos y aprobaron nuestro proyecto para su producción. Ahora, estamos listos para poner estos modelos a trabajar y comenzar a analizar informes financieros a gran escala! 🎉

En lugar de perder tiempo en Docker/Kubernetes, configurar un servidor para ejecutar estos modelos o optimizar modelos para producción, todo lo que necesitamos hacer es aprovechar la API de inferencia. No necesitamos preocuparnos por problemas de implementación o escalabilidad, podemos integrar fácilmente nuestros modelos personalizados a través de simples llamadas a la API.

Los modelos cargados en el Hub y/o creados con AutoTrain se implementan instantáneamente en producción, listos para hacer inferencias a gran escala y en tiempo real. ¡Y todo lo que se necesita para ejecutar inferencias son 12 líneas de código!

Para obtener el fragmento de código para ejecutar inferencias con nuestro modelo de análisis de sentimientos, hacemos clic en “Implementar” y “Inferencia acelerada”:

Aprovechando la API de inferencia para ejecutar inferencias en nuestro modelo personalizado

Esto nos mostrará el siguiente código para realizar solicitudes HTTP a la API de inferencia y comenzar a analizar datos con nuestro modelo personalizado:

import requests

API_URL = "https://api-inference.huggingface.co/models/FinanceInc/auditor_sentiment_finetuned"
headers = {"Authorization": "Bearer xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"}

def query(payload):
    response = requests.post(API_URL, headers=headers, json=payload)
    return response.json()
    
output = query({
    "inputs": "El beneficio operativo aumentó a 47 millones de euros desde 6.6 millones de euros",
})

Con solo 12 líneas de código, estamos en marcha ejecutando inferencias con una infraestructura que puede manejar cargas de nivel de producción a gran escala y en tiempo real 🚀. Bastante impresionante, ¿verdad?

Últimas palabras

El aprendizaje automático se está convirtiendo en la forma predeterminada de construir tecnología, en su mayoría gracias al código abierto y a la ciencia abierta.

Pero construir aprendizaje automático sigue siendo difícil. Muchos proyectos de ML se apresuran y nunca llegan a producción. El desarrollo de ML se ralentiza debido a flujos de trabajo no estándar. Los equipos de ML se frustran con el trabajo duplicado, la baja colaboración entre equipos y un ecosistema fragmentado de herramientas de ML.

En Hugging Face, creemos que hay una mejor manera de construir aprendizaje automático. Y es por eso que creamos el Private Hub. Creemos que proporcionar un conjunto unificado de herramientas para cada paso del desarrollo de aprendizaje automático y las herramientas adecuadas para colaborar llevará a un mejor trabajo de ML, traerá más soluciones de ML a producción y ayudará a los equipos de ML a impulsar la innovación.

¿Interesado en aprender más? Solicite una demostración para ver cómo puede aprovechar el Private Hub para acelerar el desarrollo de ML dentro de su organización.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Microsoft redefine los 7 TB de 'Project Silica' como solución de almacenamiento en la nube usando vidrio como medio

Microsoft dijo que su tecnología de almacenamiento de medios de vidrio Project Silica puede conservar aproximadamente...

Inteligencia Artificial

Soñar primero, aprender después DECKARD es un enfoque de IA que utiliza LLMs para entrenar agentes de aprendizaje por refuerzo (RL)

El aprendizaje por refuerzo (RL) es un enfoque popular para entrenar agentes autónomos que pueden aprender a realizar...

Inteligencia Artificial

La Sintonización de Símbolos de Google es una nueva técnica de ajuste fino que permite el aprendizaje en contexto en LLMs

Gracias a la ampliación de modelos de lenguaje, el aprendizaje automático ha experimentado un aumento revolucionario,...

Inteligencia Artificial

Promocionar canalizaciones en una configuración multiambiente utilizando Amazon SageMaker Model Registry, HashiCorp Terraform, GitHub y Jenkins CI/CD

La creación de una plataforma de operaciones de machine learning (MLOps) en el ámbito en constante evolución de la in...

Inteligencia Artificial

EE. UU. y la UE completan el tan esperado acuerdo sobre el intercambio de datos

El acuerdo pone fin a la incertidumbre legal para Meta, Google y decenas de empresas, al menos por ahora.

Inteligencia Artificial

Investigadores de la NTU de Singapur proponen IT3D un nuevo método de refinamiento de IA Plug-and-Play para la generación de texto a 3D.

Ha habido un notable progreso en el dominio de texto a imagen, lo que ha generado una oleada de entusiasmo dentro de ...