Transformadores de oraciones en el Hugging Face Hub

Transformers en Hugging Face Hub.

En las últimas semanas, hemos establecido colaboraciones con muchos frameworks de código abierto en el ecosistema del aprendizaje automático. Uno que nos emociona especialmente es Sentence Transformers.

Sentence Transformers es un framework para generar embeddings de oraciones, párrafos e imágenes. Esto permite obtener embeddings semánticamente significativos (1), lo cual es útil para aplicaciones como búsqueda semántica o clasificación multilingüe sin entrenamiento previo. Como parte del lanzamiento de la versión 2 de Sentence Transformers, hay muchas características nuevas interesantes:

  • Compartir tus modelos fácilmente en el Hub.
  • Widgets y API de inferencia para embeddings de oraciones y similitud de oraciones.
  • Mejores modelos de embeddings de oraciones disponibles (referencia y modelos en el Hub).

Con más de 90 modelos pre-entrenados de Sentence Transformers para más de 100 idiomas en el Hub, cualquier persona puede beneficiarse de ellos y usarlos fácilmente. Los modelos pre-entrenados se pueden cargar y utilizar directamente con pocas líneas de código:

from sentence_transformers import SentenceTransformer
sentences = ["Hola Mundo", "Hallo Welt"]

model = SentenceTransformer('sentence-transformers/paraphrase-MiniLM-L6-v2')
embeddings = model.encode(sentences)
print(embeddings)

Pero no solo eso. Es probable que las personas quieran demostrar sus modelos o experimentar con otros modelos fácilmente, ¡así que nos complace anunciar el lanzamiento de dos nuevos widgets en el Hub! El primero es el widget feature-extraction, que muestra el embedding de la oración.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Conoce a Baichuan 2 Una serie de modelos de lenguaje multilingües a gran escala que contienen 7B y 13B de parámetros, entrenados desde cero, con 2.6T tokens.

Los modelos de lenguaje grandes han experimentado avances significativos y alentadores en los últimos años. Los model...

Inteligencia Artificial

ChatGPT tiende hacia el liberalismo

Investigaciones realizadas por científicos de la Universidad de East Anglia en el Reino Unido sugieren que el ChatGPT...

Inteligencia Artificial

Este artículo de IA propone un método de generación de memoria recursivo para mejorar la consistencia conversacional a largo plazo en modelos de lenguaje grandes

Los chatbots y otras formas de sistemas de comunicación de dominio abierto han experimentado un aumento de interés e ...

Inteligencia Artificial

AI vence a los detectives humanos al encontrar imágenes problemáticas en documentos de investigación

Un estudio realizado por el biólogo independiente del Reino Unido, Sholto David, encontró que la inteligencia artific...

Inteligencia Artificial

MLOps para la inferencia por lotes con monitoreo y reentrenamiento del modelo utilizando Amazon SageMaker, HashiCorp Terraform y GitLab CI/CD

En esta publicación, describimos cómo crear un flujo de trabajo de MLOps para la inferencia por lotes que automatiza ...

Inteligencia Artificial

Creando un GPT Climático Utilizando la API de Energía de la NASA

En este artículo exploramos la nueva función de los GPT de OpenAI, que ofrece una forma sin código de crear rápidamen...