Learn more about Search Results Tensorboard

Solucionando cuellos de botella en la tubería de entrada de datos con PyTorch Profiler y TensorBoard

Este es el cuarto artículo de nuestra serie de publicaciones sobre el tema del análisis de rendimiento y optimización de cargas de trabajo de…

¿Conda demasiado lento? ¡Prueba Mamba!

Pronto o tarde, todo científico de datos e ingeniero en aprendizaje automático se encontrará con administradores de paquetes y entornos. Los entornos contienen las…

Gestión de modelos para los modelos afinados de LoRA utilizando Llama2 y Amazon SageMaker

En la era del big data y la inteligencia artificial, las empresas buscan constantemente formas de utilizar estas tecnologías para obtener una ventaja competitiva.…

Hacia la IA generativa para la arquitectura del modelo

La revolución del transformador La atención es todo lo que necesitas ha tenido un profundo efecto en el diseño de las arquitecturas de modelos…

Super Carga tus Sistemas de ML en 4 Sencillos Pasos

¡Bienvenido a la montaña rusa de la optimización de ML! En esta publicación te guiaré a través de mi proceso para optimizar cualquier sistema…

LangChain 101 Parte 2d. Afinando los LLM con Retroalimentación Humana

Esta es la parte 2d y la última parte de la sección de Modelos del curso LangChain 101. Se recomienda encarecidamente revisar las dos…

Ajuste fino rápido y rentable de LLaMA 2 con AWS Trainium

Los grandes modelos de lenguaje (LLMs) han capturado la imaginación y la atención de desarrolladores, científicos, tecnólogos, empresarios y ejecutivos de varias industrias. Estos…

Comparación de Frameworks de Aprendizaje Profundo

Descubre los principales marcos de trabajo de aprendizaje profundo para desarrolladores. Compara características, rendimiento y facilidad de uso para optimizar tu viaje de codificación…

Bibliotecas de Aprendizaje Automático para Cualquier Proyecto

Hay muchas bibliotecas disponibles que se pueden utilizar en proyectos de aprendizaje automático. Explora una guía completa sobre qué bibliotecas usar en tus proyectos.

Análisis y optimización del rendimiento del modelo PyTorch – Parte 3

Esta es la tercera parte de una serie de publicaciones sobre el tema de analizar y optimizar modelos de PyTorch utilizando PyTorch Profiler y…

Ajuste fino de un modelo Llama-2 7B para la generación de código en Python

Hace aproximadamente 2 semanas, el mundo de la IA generativa quedó impactado por el lanzamiento del nuevo modelo de IA Llama-2 de la compañía…

Una guía completa sobre la arquitectura UNET | Dominando la segmentación de imágenes

Introducción En el emocionante campo de la visión por computadora, donde las imágenes contienen muchos secretos e información, distinguir y resaltar elementos es crucial.…

Principales herramientas para simplificar y estandarizar el aprendizaje automático

La inteligencia artificial y el aprendizaje automático son dos líderes innovadores a medida que el mundo se beneficia del atractivo de la tecnología en…

Cómo entrenar un nuevo modelo de lenguaje desde cero utilizando Transformers y Tokenizers

En los últimos meses, hemos realizado varias mejoras en nuestras bibliotecas de transformers y tokenizers, con el objetivo de facilitar más que nunca el…

La Tecnología Detrás del Entrenamiento BLOOM

En los últimos años, se ha vuelto habitual entrenar modelos de lenguaje cada vez más grandes. Si bien se discute con frecuencia el tema…

Cómo entrenar un Modelo de Lenguaje con Megatron-LM

Entrenar modelos de lenguaje grandes en Pytorch requiere más que un simple bucle de entrenamiento. Por lo general, se distribuye en múltiples dispositivos, con…

Historia de optimización Inferencia de Bloom

Este artículo te brinda información sobre cómo creamos un servidor de inferencia eficiente que alimenta a bloom, un servidor de inferencia que alimenta https://huggingface.co/bigscience/bloom.…

Construyendo y Desplegando Modelos de CV Lecciones Aprendidas de un Ingeniero en Visión por Computadora

Con más de 3 años de experiencia en el diseño, construcción e implementación de modelos de visión por computadora (CV), me he dado cuenta…

Ajusta de forma interactiva Falcon-40B y otros LLMs en los cuadernos de Amazon SageMaker Studio utilizando QLoRA.

Ajustar modelos de lenguaje grandes (LLMs) permite adaptar modelos fundamentales de código abierto para lograr un mejor rendimiento en tareas específicas de su dominio.…

AWS Inferentia2 se basa en AWS Inferentia1 ofreciendo un rendimiento 4 veces mayor y una latencia 10 veces menor.

El tamaño de los modelos de aprendizaje automático (ML) - modelos de lenguaje grande (LLM) y modelos fundamentales (FMs) - está creciendo rápidamente año…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us