Learn more about Search Results Meg

La suite de referencia más grande de LLM MEGAVERSE

A medida que los LLM se vuelven más avanzados y más exhaustivos, los marcos de evaluación deben mantenerse al día con sus capacidades de…

TimeGPT El primer modelo base para previsión de series temporales

El campo de la predicción de series temporales está atravesando un período muy emocionante. En solo los últimos tres años, hemos presenciado muchas contribuciones…

Cómo entrenar un Modelo de Lenguaje con Megatron-LM

Entrenar modelos de lenguaje grandes en Pytorch requiere más que un simple bucle de entrenamiento. Por lo general, se distribuye en múltiples dispositivos, con…

Conoce a GigaGPT la implementación de Cerebras del nanoGPT de Andrei Karpathy que entrena modelos de IA del tamaño de GPT-3 en solo 565 líneas de código.

Entrenar modelos de transformadores grandes presenta desafíos significativos, especialmente cuando se busca modelos con miles de millones o incluso billones de parámetros. El obstáculo…

Implementando LoRA desde cero

LoRA, un acrónimo de Adaptación de Baja Graduación o Adaptadores de Baja Graduación, ofrece un método eficiente y ligero para ajustar modelos de lenguaje…

Conozca a NANA, el avatar de recepcionista con inteligencia artificial de Moonshine Studio

Nota del editor: Esta publicación es parte de nuestra serie semanal En el Estudio de NVIDIA, que celebra a artistas destacados, ofrece consejos y…

Dominar la eficiencia del algoritmo

Introducción En el mundo de la tecnología, entender la eficiencia de los algoritmos es como tener un superpoder. La eficiencia de los algoritmos no…

Principales 8 tendencias de IA de 2023 Un año en revisión

A medida que las hojas se vuelven doradas y el frío de diciembre se instala, es hora de reflexionar sobre un año que presenció…

Programando las GPU de Apple a través de Go y el lenguaje de sombreado Metal

A continuación, describiré el proceso de uso de cgo para la interfaz entre Go y C nativo, cómo se puede utilizar esto para la…

Permite un entrenamiento más rápido con la biblioteca de paralelismo de datos de Amazon SageMaker

El entrenamiento de modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) se ha vuelto cada vez más popular en el…

Chip fotónico ‘se ajusta como un Lego

Un nuevo chip semiconductor compacto de fotónica de silicio expande significativamente el ancho de banda de radiofrecuencia (RF).

Conoce a Meditron una suite de modelos de lenguaje médicos de código abierto basados en LLaMA-2 (Large Language Models para Medicina)

Una de las aplicaciones más emocionantes de los Modelos de Lenguaje Amplio (LLMs, por sus siglas en inglés) es en medicina, con algunos de…

Realidad impactante la vulnerabilidad de ChatGPT a la violación de datos

En una importante revelación, un reciente artículo de investigación titulado “Extrayendo Datos de Entrenamiento de ChatGPT” expuso una sorprendente vulnerabilidad en el modelo de…

Día de Desarrollo de OpenAI 2023 ¡Cuatro importantes anuncios de la presentación principal del fundador Sam Altman que no puedes perderte!

La primera conferencia para desarrolladores de OpenAI estuvo repleta de asombrosos anuncios de productos. ¿Y sabes qué es aún más interesante? Estos anuncios harán…

Los 5 pilares de las pruebas confiables de LLM

Descubre los pilares clave de la IA responsable, incluyendo la gestión de alucinaciones, sesgos y calidad en los LLMs, así como los desafíos en…

Training de IA en IA GatorTronGPT a la Vanguardia de las Innovaciones de IA Médica de la Universidad de Florida

¿Cómo se entrena a una IA para entender el lenguaje clínico con menos datos clínicos? Entrena a otra IA para sintetizar datos de entrenamiento.…

Investigadores desarrollan un transistor térmico de estado sólido para una mejor gestión del calor

Un transistor térmico de estado sólido permite un control preciso del movimiento del calor en dispositivos semiconductores utilizando el encendido y apagado de un…

TSMixer El último modelo de pronóstico de Google

El campo de la pronóstico de series temporales continúa en efervescencia, con muchas contribuciones recientes importantes como N-HiTS, PatchTST, TimesNet y, por supuesto, TimeGPT.…

El Pin de IA de Humane es un Avance en la Tecnología Vestible, Pero con Desventajas

En un importante avance dentro del sector de la tecnología portátil, Humane ha presentado su primer producto, el AI Pin. Este dispositivo, que surge…

Investigadores de Microsoft presentan FP8 Mixed-Precision Training Framework Potenciando la eficiencia del entrenamiento de modelos de lenguaje grandes

Los modelos de lenguaje grandes han demostrado una destreza sin precedentes en la creación y comprensión del lenguaje, abriendo el camino a avances en…

RAG Avanzado 01 Recuperación de Pequeño a Grande

Los sistemas RAG (Recuperación y Generación Mejorada) recuperan información relevante de una base de conocimiento dada, lo que les permite generar información factual, contextual…

Silicon Volley Los diseñadores utilizan la IA generativa para obtener un asistente de Chip

Un artículo de investigación publicado hoy describe formas en que la inteligencia artificial generativa puede ayudar en uno de los esfuerzos de ingeniería más…

Conoce a Fuyu-8B El modelo de fundación muy único detrás de la plataforma Adept

Adept.ai es parte de la generación de nuevos unicornios de la IA. Inicialmente incubado por algunos de los autores del icónico informe sobre transformers,…

Cuando abordar temas complejos, el primer paso es el más difícil

Ser principiante no es un estado finito que atraviesas una vez y dejas atrás para siempre. Mientras te comprometas a un aprendizaje y crecimiento…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us