Transformadores de oraciones en el Hugging Face Hub
Transformers en Hugging Face Hub.
En las últimas semanas, hemos establecido colaboraciones con muchos frameworks de código abierto en el ecosistema del aprendizaje automático. Uno que nos emociona especialmente es Sentence Transformers.
Sentence Transformers es un framework para generar embeddings de oraciones, párrafos e imágenes. Esto permite obtener embeddings semánticamente significativos (1), lo cual es útil para aplicaciones como búsqueda semántica o clasificación multilingüe sin entrenamiento previo. Como parte del lanzamiento de la versión 2 de Sentence Transformers, hay muchas características nuevas interesantes:
- Compartir tus modelos fácilmente en el Hub.
- Widgets y API de inferencia para embeddings de oraciones y similitud de oraciones.
- Mejores modelos de embeddings de oraciones disponibles (referencia y modelos en el Hub).
Con más de 90 modelos pre-entrenados de Sentence Transformers para más de 100 idiomas en el Hub, cualquier persona puede beneficiarse de ellos y usarlos fácilmente. Los modelos pre-entrenados se pueden cargar y utilizar directamente con pocas líneas de código:
from sentence_transformers import SentenceTransformer
sentences = ["Hola Mundo", "Hallo Welt"]
model = SentenceTransformer('sentence-transformers/paraphrase-MiniLM-L6-v2')
embeddings = model.encode(sentences)
print(embeddings)
Pero no solo eso. Es probable que las personas quieran demostrar sus modelos o experimentar con otros modelos fácilmente, ¡así que nos complace anunciar el lanzamiento de dos nuevos widgets en el Hub! El primero es el widget feature-extraction
, que muestra el embedding de la oración.
- Implementa modelos de Hugging Face fácilmente con Amazon SageMaker
- Bienvenido spaCy al Hugging Face Hub
- Presentando Optimum El Kit de Herramientas de Optimización para Transformadores a Gran Escala
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Hugging Face y Graphcore se asocian para Transformers optimizados para IPU
- Empezando con Hugging Face Transformers para IPUs con Optimum
- Clasificación de Opiniones con Kili y HuggingFace AutoTrain
- Muestra tus proyectos en Espacios utilizando Gradio
- Almacenando tus Modelos y Conjuntos de Datos en Hugging Face Spaces usando Streamlit
- Afinando CLIP con imágenes y subtítulos de Teledetección (Satélite)
- Modelos de Lenguaje Grandes ¿Una Nueva Ley de Moore?