Learn more about Search Results Tensorboard
![Zepes](/assets/img/zepes.jpg)
- You may be interested
- Conoce a cinco innovadores en IA genera...
- Haciendo LLMs más ligeros con AutoGPTQ ...
- Zephyr-7B LLM Hiper-optimizado de Huggi...
- 5 Visualizaciones con Python para Mostr...
- Las posibilidades creativas y transform...
- Tour de France incorpora ChatGPT y tecn...
- Introducción a la Optimización Matemáti...
- Chat con Documentos de la Empresa’...
- El modelo de IA puede ayudar a determin...
- ¿Quieres convertirte en un científico d...
- Conoce al Creador Estudiante de Robótic...
- Desarrollando Paneles Interactivos e In...
- Cómo aumentar la velocidad de Pandas y ...
- Una nueva investigación de IA de Italia...
- ‘Mi aplicación 3D favorita’...
Solucionando cuellos de botella en la tubería de entrada de datos con PyTorch Profiler y TensorBoard
Este es el cuarto artículo de nuestra serie de publicaciones sobre el tema del análisis de rendimiento y optimización de cargas de trabajo de…
¿Conda demasiado lento? ¡Prueba Mamba!
Pronto o tarde, todo científico de datos e ingeniero en aprendizaje automático se encontrará con administradores de paquetes y entornos. Los entornos contienen las…
Gestión de modelos para los modelos afinados de LoRA utilizando Llama2 y Amazon SageMaker
En la era del big data y la inteligencia artificial, las empresas buscan constantemente formas de utilizar estas tecnologías para obtener una ventaja competitiva.…
Hacia la IA generativa para la arquitectura del modelo
La revolución del transformador La atención es todo lo que necesitas ha tenido un profundo efecto en el diseño de las arquitecturas de modelos…
Super Carga tus Sistemas de ML en 4 Sencillos Pasos
¡Bienvenido a la montaña rusa de la optimización de ML! En esta publicación te guiaré a través de mi proceso para optimizar cualquier sistema…
LangChain 101 Parte 2d. Afinando los LLM con Retroalimentación Humana
Esta es la parte 2d y la última parte de la sección de Modelos del curso LangChain 101. Se recomienda encarecidamente revisar las dos…
Ajuste fino rápido y rentable de LLaMA 2 con AWS Trainium
Los grandes modelos de lenguaje (LLMs) han capturado la imaginación y la atención de desarrolladores, científicos, tecnólogos, empresarios y ejecutivos de varias industrias. Estos…
Comparación de Frameworks de Aprendizaje Profundo
Descubre los principales marcos de trabajo de aprendizaje profundo para desarrolladores. Compara características, rendimiento y facilidad de uso para optimizar tu viaje de codificación…
Bibliotecas de Aprendizaje Automático para Cualquier Proyecto
Hay muchas bibliotecas disponibles que se pueden utilizar en proyectos de aprendizaje automático. Explora una guía completa sobre qué bibliotecas usar en tus proyectos.
Análisis y optimización del rendimiento del modelo PyTorch – Parte 3
Esta es la tercera parte de una serie de publicaciones sobre el tema de analizar y optimizar modelos de PyTorch utilizando PyTorch Profiler y…
Ajuste fino de un modelo Llama-2 7B para la generación de código en Python
Hace aproximadamente 2 semanas, el mundo de la IA generativa quedó impactado por el lanzamiento del nuevo modelo de IA Llama-2 de la compañía…
Una guía completa sobre la arquitectura UNET | Dominando la segmentación de imágenes
Introducción En el emocionante campo de la visión por computadora, donde las imágenes contienen muchos secretos e información, distinguir y resaltar elementos es crucial.…
Principales herramientas para simplificar y estandarizar el aprendizaje automático
La inteligencia artificial y el aprendizaje automático son dos líderes innovadores a medida que el mundo se beneficia del atractivo de la tecnología en…
Cómo entrenar un nuevo modelo de lenguaje desde cero utilizando Transformers y Tokenizers
En los últimos meses, hemos realizado varias mejoras en nuestras bibliotecas de transformers y tokenizers, con el objetivo de facilitar más que nunca el…
La Tecnología Detrás del Entrenamiento BLOOM
En los últimos años, se ha vuelto habitual entrenar modelos de lenguaje cada vez más grandes. Si bien se discute con frecuencia el tema…
Cómo entrenar un Modelo de Lenguaje con Megatron-LM
Entrenar modelos de lenguaje grandes en Pytorch requiere más que un simple bucle de entrenamiento. Por lo general, se distribuye en múltiples dispositivos, con…
Historia de optimización Inferencia de Bloom
Este artículo te brinda información sobre cómo creamos un servidor de inferencia eficiente que alimenta a bloom, un servidor de inferencia que alimenta https://huggingface.co/bigscience/bloom.…
Construyendo y Desplegando Modelos de CV Lecciones Aprendidas de un Ingeniero en Visión por Computadora
Con más de 3 años de experiencia en el diseño, construcción e implementación de modelos de visión por computadora (CV), me he dado cuenta…
Ajusta de forma interactiva Falcon-40B y otros LLMs en los cuadernos de Amazon SageMaker Studio utilizando QLoRA.
Ajustar modelos de lenguaje grandes (LLMs) permite adaptar modelos fundamentales de código abierto para lograr un mejor rendimiento en tareas específicas de su dominio.…
AWS Inferentia2 se basa en AWS Inferentia1 ofreciendo un rendimiento 4 veces mayor y una latencia 10 veces menor.
El tamaño de los modelos de aprendizaje automático (ML) - modelos de lenguaje grande (LLM) y modelos fundamentales (FMs) - está creciendo rápidamente año…
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.