Learn more about Language Model - Section 12
Una nueva investigación de IA explica cómo el Aprendizaje de Instrucción en Contexto (ICIL) mejora el rendimiento de generalización de tareas sin entrenamiento para modelos preentrenados y modelos ajustados mediante instrucciones.
Los Modelos de Lenguaje Grandes (LLMs) han demostrado que pueden adaptarse a tareas específicas durante la inferencia...
Un nuevo estudio de investigación de IA de Stanford explica el papel de las expresiones de exceso de confianza e incertidumbre en los modelos de lenguaje
A medida que los sistemas de lenguaje natural se vuelven cada vez más prevalentes en escenarios reales, estos sistema...
Investigadores de UC Berkeley proponen una novedosa técnica llamada Cadena de Retrospección (CoH) que puede permitir a los LLM aprender de cualquier forma de retroalimentación para mejorar el rendimiento del modelo.
En los últimos años, las redes neuronales a gran escala han llamado considerablemente la atención de los investigador...
Investigadores de UC Berkeley y Deepmind proponen SuccessVQA una reformulación de la detección de éxito que es compatible con VLM pre-entrenados como Flamingo.
Para lograr la máxima precisión en el rendimiento, es crucial entender si un agente está en el camino correcto o pref...
Investigadores de Stanford presentan la Difusión Localmente Condicionada un método para la generación composicional de texto a imagen utilizando modelos de difusión.
La modelación de escenas en 3D tradicionalmente ha sido un procedimiento que requiere mucho tiempo y está reservado p...
¿Está cambiando el comportamiento de ChatGPT con el tiempo? Los investigadores evalúan las versiones de marzo de 2023 y junio de 2023 de GPT-3.5 y GPT-4 en cuatro tareas diversas.
Los Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés) han demostrado ser la mejor innovación en el campo d...
Investigadores de Salesforce AI y la Universidad de Columbia presentan DialogStudio una colección unificada y diversa de 80 conjuntos de datos de diálogo que conservan su información original.
La IA conversacional ha presenciado avances significativos en los últimos años, lo que permite interacciones similare...
Nueva investigación de IA de KAIST presenta FLASK un marco de evaluación de granularidad fina para modelos de lenguaje basado en conjuntos de habilidades
Increíblemente, los LLM han demostrado estar en sintonía con los valores humanos, brindando respuestas útiles, honest...
Conoce a Baichuan-13B el modelo de lenguaje de código abierto de China para competir con OpenAI
Wang Xiaochuan, el fundador del motor de búsqueda chino Sogou, ha lanzado un nuevo modelo de lenguaje enorme llamado ...
El equipo de Estabilidad AI presenta FreeWilly1 y FreeWilly2 Nuevos Modelos de Lenguaje de Acceso Abierto y Gran Tamaño (LLMs)
FreeWilly1 y su sucesor FreeWilly2 son nuevos y potentes modelos de lenguaje de código abierto (LLMs) desarrollados p...
Conozca Prompt Diffusion Un marco de inteligencia artificial para permitir el aprendizaje en contexto en modelos generativos basados en difusión
Los modelos de lenguaje grandes de última generación (LLMs), incluyendo BERT, GPT-2, BART, T5, GPT-3 y GPT-4, han sid...
¿Pueden los LLM ejecutarse de forma nativa en tu iPhone? Conoce MLC-LLM un marco abierto que permite llevar los modelos de lenguaje (LLMs) directamente a una amplia clase de plataformas con aceleración de GPU.
Los Modelos de Lenguaje Grandes (LLMs) son el tema más candente en el campo de la Inteligencia Artificial. Se ha avan...
Conoce a TxGNN un nuevo modelo que utiliza el aprendizaje profundo geométrico y la inteligencia artificial centrada en el ser humano para hacer predicciones sin entrenamiento sobre el uso terapéutico en una amplia gama de 17,080 enfermedades.
Existe una necesidad urgente de crear terapéuticos para satisfacer las necesidades de atención médica de miles de mil...
Este artículo de IA propone un método novedoso basado en gradientes llamado Cones para analizar e identificar las neuronas conceptuales en modelos de difusión
La compleja estructura del cerebro le permite realizar tareas cognitivas y creativas asombrosas. Según la investigaci...
Conoce a Prismer Un modelo de visión-lenguaje de código abierto con un conjunto de expertos.
Varios modelos recientes de visión y lenguaje han demostrado notables habilidades de generación multimodal. Pero típi...
Conoce StyleAvatar3D Un nuevo método de IA para generar avatares 3D estilizados utilizando modelos de difusión de imagen-texto y una red de generación 3D basada en GAN.
Desde la aparición de asociaciones de imagen y texto a gran escala y de topologías sofisticadas de modelos generativo...
Investigadores de UC Berkeley presentan Gorilla un modelo basado en LLaMA afinado que supera a GPT-4 en la escritura de llamadas a la API.
Un avance reciente en el campo de la Inteligencia Artificial es la introducción de los Modelos de Lenguaje Grandes (L...
Sabemos que las LLM pueden utilizar herramientas, ¿pero sabías que también pueden crear nuevas herramientas? Conoce a las LLM como fabricantes de herramientas (LATM) un sistema de bucle cerrado que permite a las LLM crear sus propias herramientas reutilizables.
Los modelos de lenguaje grandes (LLMs) han destacado en una amplia gama de tareas de procesamiento del lenguaje natur...
Este artículo de IA propone Retentive Networks (RetNet) como una arquitectura base para modelos de lenguaje grandes logrando paralelismo de entrenamiento, inferencia de bajo costo y buen rendimiento
Transformer, que fue desarrollado inicialmente para abordar el problema de entrenamiento secuencial con modelos recur...
Investigadores de CMU proponen GILL un método de IA para fusionar LLMs con modelos de codificador y decodificador de imágenes
Con el lanzamiento del nuevo GPT 4 de OpenAI, se ha introducido la multimodalidad en los Modelos de Lenguaje Grandes....
Una nueva investigación de IA de Italia presenta un modelo generativo basado en difusión capaz tanto de la síntesis musical como de la separación de fuentes
Los seres humanos son capaces de procesar varias fuentes de sonido al mismo tiempo, tanto en términos de composición ...
Microsoft y los investigadores de Columbia proponen LLM-AUGMENTER un sistema de inteligencia artificial que aumenta un LLM de caja negra con un conjunto de módulos plug-and-play
Los grandes modelos de lenguaje (LLMs), como GPT-3, son ampliamente reconocidos por su capacidad para generar textos ...
Meet TableGPT Un marco unificado ajustado que permite a los LLM comprender y operar en tablas utilizando comandos funcionales externos
Las tablas se utilizan con frecuencia para representar el vasto y complejo mundo de los datos y sirven como base para...
LMSYS ORG presenta Chatbot Arena una plataforma de referencia de LLM con batallas anónimas y aleatorias realizadas por la multitud
Muchos proyectos de código abierto han desarrollado modelos lingüísticos completos que se pueden entrenar para llevar...
Conoce a MPT-7B un nuevo modelo de lenguaje de código abierto entrenado en 1T tokens de texto y código seleccionados por MosaicML.
MosaicML ha lanzado recientemente una herramienta revolucionaria, MPT-7B, para transformar la forma en que las empres...
![Zepes](/assets/img/zepes.jpg)
- You may be interested
- Una introducción a la llamada de funcio...
- ¿Cómo cambiar tu carrera de Marketing a...
- Investigadores del Laboratorio de Intel...
- Revelando los secretos de las neuronas ...
- CEO de OpenAI, Sam Altman Empleos en ri...
- ¿Cómo deberíamos almacenar imágenes de ...
- Explora el Futuro de la Industria 4.0 R...
- Cómo la inteligencia artificial permite...
- Google AI presenta Imagen Editor y Edit...
- Privacidad de datos y su impacto en la ...
- Alibaba libera el modelo de IA de códig...
- Investigadores de Stanford innovan en e...
- Descenso del Gradiente La Guía del Excu...
- Cómo comprar Solana (SOL)
- La Guía Definitiva para Entrenar BERT d...
Find your business way
Globalization of Business, We can all achieve our own Success.