Learn more about Large Language Model - Section 4
Conoce a MetaGPT El marco de inteligencia artificial de código abierto que transforma a los GPT en ingenieros, arquitectos y gerentes.
Los Modelos de Lenguaje Grandes (LLMs) basados en sistemas multiagente tienen oportunidades excepcionales para imitar...
¿SE HA VUELTO LA IA DEMASIADO HUMANA? Investigadores de Google AI descubren que los LLM ahora pueden utilizar modelos de ML y APIs solo con la documentación de la herramienta.
En esta era en la que cada día la IA parece estar conquistando el planeta, los Modelos de Lenguaje Grande se están ac...
Conoce Retroformer Un elegante marco de inteligencia artificial para mejorar iterativamente los agentes de lenguaje grandes mediante el aprendizaje de un modelo retrospectivo de conexión.
Ha surgido una nueva tendencia potente en la que los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) se ...
Investigadores de UC Berkeley presentan Dynalang un agente de IA que aprende un modelo mundial multimodal para predecir representaciones futuras de texto e imágenes, y aprende a actuar a partir de simulaciones imaginadas del modelo.
Crear bots que puedan comunicarse de manera orgánica con las personas en el mundo real utilizando el lenguaje ha sido...
Alibaba libera el modelo de IA de código abierto para competir con Meta y potenciar a los desarrolladores
En un desarrollo significativo, Alibaba, el gigante chino del comercio electrónico, ha decidido abrir su potente mode...
LightOn AI lanza Alfred-40B-0723 un nuevo modelo de lenguaje de código abierto (LLM) basado en Falcon-40B.
En un movimiento innovador, LightOn anunció con orgullo el lanzamiento de Alfred-40B-0723, un innovador Modelo de Len...
Conoce MovieChat un innovador sistema de comprensión de video que integra modelos fundamentales de video y grandes modelos de lenguaje.
Los Modelos de Lenguaje Grande (LLMs, por sus siglas en inglés) han avanzado considerablemente en el sector de Proces...
Abacus AI presenta un nuevo modelo de lenguaje grande de contexto largo y abierto (LLM) Conoce a Giraffe
Los modelos de lenguaje recientes pueden tomar contextos largos como entrada; se necesita más información sobre cómo ...
¿Puede (Muy) Simple Matemáticas Informar RLHF Para Modelos de Lenguaje Grandes LLMs? ¡Este artículo de IA dice que sí!
Incorporar la entrada humana es un componente clave de las recientes mejoras impresionantes en las capacidades de los...
Una nueva investigación de IA de CMU propone un método de ataque simple y efectivo que hace que los modelos de lenguaje alineados generen comportamientos objetables.
Los modelos de lenguaje grandes (LLM) como ChatGPT, Bard AI y Llama-2 pueden generar contenido indeseable y ofensivo....
Conoce GPTCache una biblioteca para desarrollar una caché semántica de consultas LLM.
ChatGPT y los modelos de lenguaje grandes (LLMs) son extremadamente flexibles, lo que permite la creación de numeroso...
Conoce a LP-MusicCaps un enfoque de generación de subtítulos seudoposicionales con grandes modelos de lenguaje para abordar el problema de escasez de datos en la subtitulación automática de música.
La generación de subtítulos de música implica la recuperación de información musical mediante la generación de descri...
Conoce a Skill-it un marco de habilidades impulsado por datos para comprender y entrenar modelos de lenguaje
Los modelos de lenguaje grandes (LM) son notablemente capaces de crear código fuente, crear obras de arte originales ...
Conoce a QLORA Un enfoque de ajuste eficiente que reduce el uso de memoria lo suficiente como para ajustar un modelo de 65B parámetros en una sola GPU de 48GB, preservando al mismo tiempo el rendimiento completo de la tarea de ajuste fino de 16 bits.
Los modelos de lenguaje grandes (LLMs) pueden mejorarse mediante el ajuste fino, lo cual también permite agregar o el...
LLMs superan al aprendizaje por refuerzo Conozca SPRING un innovador marco de trabajo de sugerencias para LLMs diseñado para permitir la planificación y el razonamiento en cadena de pensamiento en contexto.
SPRING es una política basada en LLM que supera a los algoritmos de Reinforcement Learning en un entorno interactivo ...
Conoce a los razonadores RAP y LLM Dos marcos basados en conceptos similares para el razonamiento avanzado con LLMs
Cada día que pasa trae un progreso notable en los Modelos de Lenguaje Grandes (LLMs), lo que lleva a herramientas y a...
Investigadores de NYU y Meta AI están mejorando los agentes de conversación social mediante el aprendizaje del diálogo natural entre los usuarios y un modelo implementado, sin necesidad de anotaciones adicionales.
La entrada humana es una táctica clave para mejorar los modelos de diálogo social. En el aprendizaje por refuerzo con...
Conoce el modelo GOAT-7B-Community un modelo de IA ajustado finamente a partir del modelo LLaMA-2 7B en un conjunto de datos recopilados de la aplicación GoatChat.
Recientemente, científicos del Laboratorio de Investigación de IA presentaron el modelo GOAT-7B-Community, que mejora...
Conoce REPLUG un marco de modelado de lenguaje (LM) mejorado con recuperación que combina un modelo de lenguaje congelado con un recuperador congelado/ajustable, mejorando el rendimiento de GPT-3 (175B) en la modelización del lenguaje en un 6.3%.
En los últimos años, los modelos de lenguaje se han convertido en uno de los campos de mayor crecimiento en Inteligen...
Este artículo de IA propone inyectar el mundo 3D en los grandes modelos de lenguaje y presentar una nueva familia completa de modelos de lenguaje 3D (3D-LLMs).
En los últimos años, hemos visto un aumento en los modelos de lenguaje grandes (LLMs) (como GPT4) que son excelentes ...
Potenciando la IA en Dispositivos Qualcomm y Meta colaboran con la tecnología Llama 2
El lanzamiento de Llama 2, la nueva versión de código abierto de Meta, ha generado discusiones sobre los casos de uso...
Soñar primero, aprender después DECKARD es un enfoque de IA que utiliza LLMs para entrenar agentes de aprendizaje por refuerzo (RL)
El aprendizaje por refuerzo (RL) es un enfoque popular para entrenar agentes autónomos que pueden aprender a realizar...
Cómo los LLM basados en Transformer extraen conocimiento de sus parámetros
En los últimos años, los modelos de lenguaje basados en transformadores (LLMs, por sus siglas en inglés) se han vuelt...
Una nueva investigación de IA explica cómo el Aprendizaje de Instrucción en Contexto (ICIL) mejora el rendimiento de generalización de tareas sin entrenamiento para modelos preentrenados y modelos ajustados mediante instrucciones.
Los Modelos de Lenguaje Grandes (LLMs) han demostrado que pueden adaptarse a tareas específicas durante la inferencia...
OpenAI lanza Baby Llama – Un LLM para dispositivos de baja potencia!
¡Últimas noticias del mundo de la inteligencia artificial! Andrej Karpathy, renombrado experto en aprendizaje profund...
- You may be interested
- Una nueva investigación de IA de Stanfo...
- Modelando el Problema del Viajante de C...
- Construyendo PCA desde cero
- Investigadores de Hugging Face presenta...
- Nuevo curso técnico de inmersión profun...
- Python Avanzado Operador de Punto
- El Mundo Oculto de los Índices (Vectori...
- ¿La academia se está obsesionando con l...
- Dominando la Ingeniería de Prompt para ...
- Aumente el rendimiento de latencia y re...
- Top 10 cursos en línea de ciencia de da...
- Explorando Google Cloud Platform Una Vi...
- Dos interesantes funciones de manipulac...
- La IA generativa imagina nuevas estruct...
- MosaicML acaba de lanzar su MPT-30B baj...
Find your business way
Globalization of Business, We can all achieve our own Success.