Hugging Face y Graphcore se asocian para Transformers optimizados para IPU
Hugging Face y Graphcore se asocian para Transformers en IPU.
Hablando en la Cumbre de Hardware de IA 2021, Hugging Face anunció el lanzamiento de su nuevo Programa de Socios de Hardware, que incluye modelos optimizados para dispositivos e integraciones de software. Aquí, Graphcore – creadores de la Unidad de Procesamiento de Inteligencia (IPU) y miembro fundador del programa – explican cómo su asociación con Hugging Face permitirá a los desarrolladores acelerar fácilmente su uso de modelos Transformer de última generación.
Graphcore y Hugging Face son dos empresas con un objetivo común: facilitar que los innovadores aprovechen el poder de la inteligencia artificial.
El Programa de Socios de Hardware de Hugging Face permitirá a los desarrolladores que utilicen sistemas Graphcore implementar modelos Transformer de última generación optimizados para nuestra Unidad de Procesamiento de Inteligencia (IPU) a escala de producción, con una complejidad de codificación mínima.
¿Qué es una Unidad de Procesamiento de Inteligencia?
Las IPU son los procesadores que alimentan los sistemas de cómputo IPU-POD de Graphcore en los centros de datos. Este nuevo tipo de procesador está diseñado para satisfacer los requisitos computacionales muy específicos de la inteligencia artificial y el aprendizaje automático. Características como el paralelismo de grano fino, la aritmética de baja precisión y la capacidad para manejar la dispersión se han incorporado en nuestro silicio.
En lugar de adoptar una arquitectura SIMD/SIMT como las GPUs, la IPU de Graphcore utiliza una arquitectura MIMD masivamente paralela, con memoria de ancho de banda ultraalto colocada junto a los núcleos del procesador, directamente en el chip de silicio.
- Empezando con Hugging Face Transformers para IPUs con Optimum
- Clasificación de Opiniones con Kili y HuggingFace AutoTrain
- Muestra tus proyectos en Espacios utilizando Gradio
Este diseño ofrece un alto rendimiento y nuevos niveles de eficiencia, ya sea ejecutando los modelos más populares en la actualidad, como BERT y EfficientNet, o explorando aplicaciones de inteligencia artificial de próxima generación.
El software desempeña un papel vital en desbloquear las capacidades de la IPU. Nuestro SDK Poplar ha sido diseñado de forma conjunta con el procesador desde el inicio de Graphcore. Hoy se integra completamente con marcos de aprendizaje automático estándar, como PyTorch y TensorFlow, así como con herramientas de orquestación e implementación como Docker y Kubernetes.
Hacer que Poplar sea compatible con estos sistemas de terceros ampliamente utilizados permite a los desarrolladores trasladar fácilmente sus modelos desde otras plataformas informáticas y comenzar a aprovechar las capacidades avanzadas de la IPU.
Optimización de los Transformers para la producción
Los Transformers han transformado por completo (juego de palabras intencionado) el campo de la inteligencia artificial. Modelos como BERT son ampliamente utilizados por los clientes de Graphcore en una amplia gama de aplicaciones, tanto en el procesamiento del lenguaje natural como en otros campos. Estos modelos multifuncionales pueden realizar extracción de características, generación de texto, análisis de sentimientos, traducción y muchas más funciones.
Actualmente, Hugging Face alberga cientos de Transformers, desde el modelo en francés CamemBERT hasta ViT, que aplica las lecciones aprendidas en el procesamiento del lenguaje natural a la visión artificial. La biblioteca de Transformers se descarga en promedio dos millones de veces al mes y la demanda está creciendo.
Con una base de usuarios de más de 50,000 desarrolladores, Hugging Face ha experimentado la adopción más rápida de un proyecto de código abierto en la historia.
Ahora, con su Programa de Socios de Hardware, Hugging Face está conectando el conjunto de herramientas definitivo de los Transformers con el hardware de IA más avanzado de hoy en día.
Utilizando Optimum, una nueva biblioteca y conjunto de herramientas de código abierto, los desarrolladores podrán acceder a modelos optimizados para hardware certificados por Hugging Face.
Estos están siendo desarrollados en colaboración entre Graphcore y Hugging Face, y los primeros modelos optimizados para la IPU aparecerán en Optimum a finales de este año. En última instancia, abarcarán una amplia gama de aplicaciones, desde visión y voz hasta traducción y generación de texto.
El CEO de Hugging Face, Clément Delangue, dijo: “Todos los desarrolladores quieren acceder al hardware más moderno y avanzado, como la IPU de Graphcore, pero siempre surge la pregunta de si tendrán que aprender nuevos códigos o procesos. Con Optimum y el Programa de Hardware de Hugging Face, eso simplemente no es un problema. Es prácticamente enchufar y usar”.
Modelos SOTA se encuentran con Hardware SOTA
Antes del anuncio de la Asociación con Hugging Face, ya habíamos demostrado el poder de la IPU para acelerar modelos Transformer de última generación con una implementación especial optimizada de Hugging Face BERT utilizando Pytorch.
Los detalles completos de este ejemplo se pueden encontrar en el blog de Graphcore, “BERT-Large training on the IPU explained”.
Los impresionantes resultados de referencia para BERT ejecutándose en un sistema de Graphcore, en comparación con un sistema similar basado en GPU, seguramente son una perspectiva tentadora para cualquier persona que actualmente esté ejecutando el modelo NLP popular en algo que no sea la IPU.
Este tipo de aceleración puede cambiar el juego para los investigadores y ingenieros de aprendizaje automático, devolviéndoles valiosas horas de tiempo de entrenamiento y permitiéndoles realizar muchas más iteraciones al desarrollar nuevos modelos.
Ahora, los usuarios de Graphcore podrán desbloquear tales ventajas de rendimiento a través de la plataforma Hugging Face, con su elegante simplicidad y excelente variedad de modelos.
Juntos, Hugging Face y Graphcore están ayudando a aún más personas a acceder al poder de los Transformadores y acelerar la revolución de la IA.
Visita el portal de socios de hardware de Hugging Face para obtener más información sobre los sistemas Graphcore IPU y cómo obtener acceso.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Almacenando tus Modelos y Conjuntos de Datos en Hugging Face Spaces usando Streamlit
- Afinando CLIP con imágenes y subtítulos de Teledetección (Satélite)
- Modelos de Lenguaje Grandes ¿Una Nueva Ley de Moore?
- Escalando la inferencia del modelo similar a BERT en CPU modernas – Parte 2
- Acelerando el ajuste fino distribuido de PyTorch con tecnologías de Intel
- Presentando la Herramienta de Medición de Datos una herramienta interactiva para analizar conjuntos de datos.
- Presentamos Snowball Fight ☃️, nuestro primer entorno de ML-Agents.