Learn more about Search Results transformers

Esta investigación de IA revela el LSS Transformer Un enfoque revolucionario de IA para el entrenamiento eficiente de secuencias largas en los Transformers.

Una nueva investigación de IA ha presentado el Long Short-Sequence Transformer (LSS Transformer), un método eficiente de entrenamiento distribuido diseñado para modelos de transformadores…

El ABC de los Transformers Todo lo que necesitas saber

Probablemente ya hayas oído hablar de Transformers, y todo el mundo habla de ello, ¿así que por qué escribir un nuevo artículo al respecto?…

Comparando técnicas de procesamiento de lenguaje natural RNNs, Transformers, BERT

RNN, Transformers y BERT son técnicas populares de PNL con compensaciones en modelado de secuencias, paralelización y preentrenamiento para tareas derivadas.

Segmentación semántica de imágenes utilizando Transformers de predicción densa

Introducción Este artículo analizará una técnica de visión por computadora llamada Segmentación Semántica de Imágenes. Aunque esto suena complejo, lo vamos a desglosar paso…

Visión general de los esquemas de cuantización admitidos de forma nativa en 🤗 Transformers

Nuestro objetivo es brindar una descripción clara de los pros y los contras de cada esquema de cuantificación admitido en transformers para ayudarlo a…

¿Pueden los Transformers aprender a estrategizar?

Aunque la mayoría de los juegos de mesa se basan en el uso de redes neuronales convolucionales u otras arquitecturas inspiradas en la geometría,…

Explicando la atención en Transformers [Desde el punto de vista del codificador]

En este artículo, nos sumergiremos profundamente en el concepto de atención en las redes Transformer, particularmente desde la perspectiva del codificador. Cubriremos los siguientes…

Haciendo LLMs más ligeros con AutoGPTQ y transformers

Los grandes modelos de lenguaje han demostrado capacidades notables en comprender y generar texto similar al humano, revolucionando aplicaciones en diversos campos. Sin embargo,…

Simplificando Transformers NLP de última generación utilizando palabras que comprendes – parte 2 – Entrada

Dragón sale de huevos, los bebés saltan de vientres, el texto generado por IA comienza desde las entradas. Todos tenemos que empezar en algún…

Swin Transformers | Tareas modernas de visión por computadora

Introducción El Swin Transformer es una innovación significativa en el campo de los transformadores de visión. El rendimiento excepcional de los transformadores se ha…

Train self-supervised vision transformers on overhead imagery with Amazon SageMaker’ Entrenar transformadores de visión auto-supervisados en imágenes aéreas con Amazon SageMaker.

En esta publicación, demostramos cómo entrenar transformadores de visión auto-supervisados en imágenes aéreas utilizando Amazon SageMaker. Los viajeros colaboraron con el Laboratorio de Soluciones…

Extracción de datos de documentos sin OCR con Transformers (2/2)

¿Qué tan bien comprenden los modelos transformadores Donut y Pix2Struct los documentos? Te muestro cómo entrenarlos y comparar sus resultados para la tarea de…

Abriendo en Canal la Biblioteca de Transformers de Hugging Face

Este es el tercer artículo de una serie sobre el uso de modelos de lenguaje grandes (LLMs) en la práctica. Aquí daré una guía…

Análisis de acordes de jazz con Transformers

En este artículo, resumo parte de mi artículo de investigación Predicción de jerarquías musicales con un decodificador neuronal basado en gráficos que presenta un…

Guía introductoria completa sobre el reconocimiento de voz a texto con Transformers

Introducción Todos lidiamos con datos de audio mucho más de lo que nos damos cuenta. El mundo está lleno de datos de audio y…

Herramientas y Agentes de HuggingFace Transformers Práctica

La versión v4.29.0 de Transformers, basada en el concepto de herramientas y agentes, proporciona una API de lenguaje natural sobre transformers. ¿Cómo usarlos? Sumergámonos…

Cómo entrenar un nuevo modelo de lenguaje desde cero utilizando Transformers y Tokenizers

En los últimos meses, hemos realizado varias mejoras en nuestras bibliotecas de transformers y tokenizers, con el objetivo de facilitar más que nunca el…

Cómo generar texto utilizando diferentes métodos de decodificación para la generación de lenguaje con Transformers

Introducción En los últimos años, ha habido un creciente interés en la generación de lenguaje de forma abierta gracias al surgimiento de modelos de…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us