Hugging Face y Graphcore se asocian para Transformers optimizados para IPU

Hugging Face y Graphcore se asocian para Transformers en IPU.

Hablando en la Cumbre de Hardware de IA 2021, Hugging Face anunció el lanzamiento de su nuevo Programa de Socios de Hardware, que incluye modelos optimizados para dispositivos e integraciones de software. Aquí, Graphcore – creadores de la Unidad de Procesamiento de Inteligencia (IPU) y miembro fundador del programa – explican cómo su asociación con Hugging Face permitirá a los desarrolladores acelerar fácilmente su uso de modelos Transformer de última generación.

Graphcore y Hugging Face son dos empresas con un objetivo común: facilitar que los innovadores aprovechen el poder de la inteligencia artificial.

El Programa de Socios de Hardware de Hugging Face permitirá a los desarrolladores que utilicen sistemas Graphcore implementar modelos Transformer de última generación optimizados para nuestra Unidad de Procesamiento de Inteligencia (IPU) a escala de producción, con una complejidad de codificación mínima.

¿Qué es una Unidad de Procesamiento de Inteligencia?

Las IPU son los procesadores que alimentan los sistemas de cómputo IPU-POD de Graphcore en los centros de datos. Este nuevo tipo de procesador está diseñado para satisfacer los requisitos computacionales muy específicos de la inteligencia artificial y el aprendizaje automático. Características como el paralelismo de grano fino, la aritmética de baja precisión y la capacidad para manejar la dispersión se han incorporado en nuestro silicio.

En lugar de adoptar una arquitectura SIMD/SIMT como las GPUs, la IPU de Graphcore utiliza una arquitectura MIMD masivamente paralela, con memoria de ancho de banda ultraalto colocada junto a los núcleos del procesador, directamente en el chip de silicio.

Este diseño ofrece un alto rendimiento y nuevos niveles de eficiencia, ya sea ejecutando los modelos más populares en la actualidad, como BERT y EfficientNet, o explorando aplicaciones de inteligencia artificial de próxima generación.

El software desempeña un papel vital en desbloquear las capacidades de la IPU. Nuestro SDK Poplar ha sido diseñado de forma conjunta con el procesador desde el inicio de Graphcore. Hoy se integra completamente con marcos de aprendizaje automático estándar, como PyTorch y TensorFlow, así como con herramientas de orquestación e implementación como Docker y Kubernetes.

Hacer que Poplar sea compatible con estos sistemas de terceros ampliamente utilizados permite a los desarrolladores trasladar fácilmente sus modelos desde otras plataformas informáticas y comenzar a aprovechar las capacidades avanzadas de la IPU.

Optimización de los Transformers para la producción

Los Transformers han transformado por completo (juego de palabras intencionado) el campo de la inteligencia artificial. Modelos como BERT son ampliamente utilizados por los clientes de Graphcore en una amplia gama de aplicaciones, tanto en el procesamiento del lenguaje natural como en otros campos. Estos modelos multifuncionales pueden realizar extracción de características, generación de texto, análisis de sentimientos, traducción y muchas más funciones.

Actualmente, Hugging Face alberga cientos de Transformers, desde el modelo en francés CamemBERT hasta ViT, que aplica las lecciones aprendidas en el procesamiento del lenguaje natural a la visión artificial. La biblioteca de Transformers se descarga en promedio dos millones de veces al mes y la demanda está creciendo.

Con una base de usuarios de más de 50,000 desarrolladores, Hugging Face ha experimentado la adopción más rápida de un proyecto de código abierto en la historia.

Ahora, con su Programa de Socios de Hardware, Hugging Face está conectando el conjunto de herramientas definitivo de los Transformers con el hardware de IA más avanzado de hoy en día.

Utilizando Optimum, una nueva biblioteca y conjunto de herramientas de código abierto, los desarrolladores podrán acceder a modelos optimizados para hardware certificados por Hugging Face.

Estos están siendo desarrollados en colaboración entre Graphcore y Hugging Face, y los primeros modelos optimizados para la IPU aparecerán en Optimum a finales de este año. En última instancia, abarcarán una amplia gama de aplicaciones, desde visión y voz hasta traducción y generación de texto.

El CEO de Hugging Face, Clément Delangue, dijo: “Todos los desarrolladores quieren acceder al hardware más moderno y avanzado, como la IPU de Graphcore, pero siempre surge la pregunta de si tendrán que aprender nuevos códigos o procesos. Con Optimum y el Programa de Hardware de Hugging Face, eso simplemente no es un problema. Es prácticamente enchufar y usar”.

Modelos SOTA se encuentran con Hardware SOTA

Antes del anuncio de la Asociación con Hugging Face, ya habíamos demostrado el poder de la IPU para acelerar modelos Transformer de última generación con una implementación especial optimizada de Hugging Face BERT utilizando Pytorch.

Los detalles completos de este ejemplo se pueden encontrar en el blog de Graphcore, “BERT-Large training on the IPU explained”.

Los impresionantes resultados de referencia para BERT ejecutándose en un sistema de Graphcore, en comparación con un sistema similar basado en GPU, seguramente son una perspectiva tentadora para cualquier persona que actualmente esté ejecutando el modelo NLP popular en algo que no sea la IPU.

Este tipo de aceleración puede cambiar el juego para los investigadores y ingenieros de aprendizaje automático, devolviéndoles valiosas horas de tiempo de entrenamiento y permitiéndoles realizar muchas más iteraciones al desarrollar nuevos modelos.

Ahora, los usuarios de Graphcore podrán desbloquear tales ventajas de rendimiento a través de la plataforma Hugging Face, con su elegante simplicidad y excelente variedad de modelos.

Juntos, Hugging Face y Graphcore están ayudando a aún más personas a acceder al poder de los Transformadores y acelerar la revolución de la IA.

Visita el portal de socios de hardware de Hugging Face para obtener más información sobre los sistemas Graphcore IPU y cómo obtener acceso.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Abogado penalista advierte que la IA podría hacer que los tribunales duden de sus propios ojos

El gobierno federal de Australia está considerando nuevas regulaciones para la tecnología de inteligencia artificial.

Inteligencia Artificial

Conoce a Llemma el modelo de lenguaje matemático de próxima generación que supera los estándares actuales

Los modelos de lenguaje entrenados en diversas mezclas de texto muestran una comprensión y generación de lenguaje gen...

Inteligencia Artificial

¿Qué es la Superalineación y por qué es importante?

Abordando los posibles riesgos asociados con los sistemas de superinteligencia.

Inteligencia Artificial

Navegando la Curva de Aprendizaje La Lucha de la IA con la Retención de Memoria

A medida que los límites de la inteligencia artificial (IA) se expanden continuamente, los investigadores luchan con ...

Inteligencia Artificial

La minería de Bitcoin utilizó más agua que la ciudad de Nueva York el año pasado.

Un estudio encontró que el uso de agua por parte de los mineros de bitcoin alcanzó los 591 mil millones de galones ha...