Investigadores de ETH Zurich y Microsoft presentan SCREWS Un marco de inteligencia artificial para mejorar el razonamiento en modelos de lenguaje grandes.

Investigadores de ETH Zurich y Microsoft presentan SCREWS Un marco de inteligencia artificial para potenciar el razonamiento en modelos de lenguaje amplios.

Los grandes modelos de lenguaje (LLMs) han tenido éxito en varias tareas de razonamiento diferentes. Para garantizar que se logre el objetivo deseado, a veces es necesario ajustar de manera iterativa los resultados del LLM porque la salida solo es ocasionalmente precisa en el primer intento. Estas técnicas de refinamiento asumen que los resultados consecutivos (del mismo modelo, un modelo externo o alguna herramienta) resultan en un mejor rendimiento. Sin embargo, no hay garantía de que las versiones posteriores siempre sean mejores, como se muestra en la Figura 1, el refinamiento puede resultar en un falso positivo. Esto alienta al modelo a elegir un resultado anterior utilizando la técnica de selección. Además, las investigaciones anteriores sobre refinamiento iterativo suelen utilizar una técnica de razonamiento única y fija. Pero los humanos son más adaptables.

Figura 1: Un estudio de caso ilustrativo de cómo la remuestreo condicional (también conocida como “refinamiento”) puede provocar una modificación incorrecta de la respuesta inicial. La respuesta original, que en este caso es correcta, puede ser elegida por un módulo de selección en lugar de la alteración.

Un gerente de producto puede utilizar una técnica de lluvia de ideas para generar varias ideas antes de pasar a una técnica de priorización para clasificarlas según su viabilidad o efecto. De manera similar, un estudiante que se prepara para un examen puede utilizar el razonamiento deductivo para responder preguntas y el razonamiento inductivo para confirmar los resultados. Esto sugiere una estrategia modular para responder a los refinamientos, lo que nos permite probar diferentes tácticas. En este artículo, investigadores de ETH Zurich y Microsoft Semantic Machines presentan SCREWS, un marco modular para razonar sobre cambios. El muestreo, el remuestreo condicional y la selección son los tres componentes principales de la arquitectura que se presentan en detalle en la Figura 2. Instancian SCREWS mediante la fijación de los submódulos para cada módulo (por ejemplo, pueden elegir “Cadena de pensamiento” para el muestreo). Esto se hace para un trabajo específico y una secuencia de entrada.

Figura 2 presenta una imagen de alto nivel del sistema modular SCREWS para razonar sobre revisiones. Las tres cajas sustanciales (o “módulos”) contienen varias opciones (o “submódulos”). Muchos esfuerzos anteriores, como Self-Refine, Least to Most, LLMs Know (Mostly), Self-Consistency, Self-Improve, PHP CoT, Self-Correct, Socratic CoT, Programme of Thoughts y muchos más, se pueden ver como ejemplos del marco de trabajo. (…) denota componentes adicionales que se pueden agregar a cada módulo, incluyendo, pero no limitado a, memoria en caché o búsqueda en línea para el módulo de muestreo, un modelo ajustado o un verificador externo para el remuestreo condicional y selección basada en humanos o un oráculo para el módulo de selección.

Las primeras salidas del muestreo se entregan al remuestreo condicional, que determina si crear una revisión en función de la muestra original y lo hace si es necesario. Luego, el módulo de selección elige el mejor de todas las muestras y revisiones. Dado el diseño modular de su marco de trabajo, se pueden utilizar elementos adicionales del marco para mejorar varios enfoques de auto-refinamiento recientemente propuestos. Un ejemplo es la combinación de su técnica de selección basada en el modelo y el método de auto-refinamiento, lo que puede mejorar el rendimiento general. Utilizan ChatGPT o GPT-4 para evaluar SCREWS en varias tareas de razonamiento, incluyendo preguntas de múltiples saltos, razonamiento aritmético y depuración de código.

En comparación con los procedimientos de muestra estándar y muestreo repetido, sus soluciones sugeridas producen mejoras significativas (10-15%). Demuestran el valor del muestreo heterogéneo, mostrando cómo puede influir en la lógica del modelo y mejorar sustancialmente las líneas de base a un costo total muy bajo. También explican la importancia de un enfoque de selección basado en el modelo, un elemento crucial de los modelos lineales mixtos contemporáneos que permite al modelo volver a salidas anteriores, más seguras.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Mistral AI presenta Mixtral 8x7B un potente modelo disperso de mezcla de expertos

En un movimiento hacia el avance de la inteligencia artificial, Mistral AI, pionero en la entrega de modelos abiertos...

Inteligencia Artificial

Tencent AI Lab presenta GPT4Video un modelo de lenguaje grande multimodal unificado para la comprensión de instrucciones y la generación consciente de seguridad.

El problema de comprensión y generación de videos ha sido abordado por investigadores del Laboratorio de IA de Tencen...

Inteligencia Artificial

Conoce AudioLDM 2 Un marco de trabajo de IA único para la generación de audio que combina habla, música y efectos de sonido

En un mundo cada vez más dependiente de los conceptos de Inteligencia Artificial y Aprendizaje Profundo, el ámbito de...

Aprendizaje Automático

¿Qué es Machine Learning como Servicio? Beneficios y principales plataformas de MLaaS.

El aprendizaje automático utiliza análisis estadísticos para generar resultados de predicción sin requerir programaci...

Inteligencia Artificial

El mundo natural potencia el futuro de la visión por computadora

Un sistema de software de código abierto tiene como objetivo mejorar el entrenamiento de sistemas de visión por compu...