Esta investigación de IA de Microsoft y la Universidad de Tsinghua presenta EvoPrompt un nuevo marco de IA para la optimización automática de indicaciones discretas que conecta LLMs y algoritmos evolutivos
Investigación de IA de Microsoft y Universidad de Tsinghua EvoPrompt, nuevo marco de IA para optimización automática de indicaciones discretas que conecta LLMs y algoritmos evolutivos.
Los modelos de lenguaje grandes (LLMs) están destacando en prácticamente todas las tareas de procesamiento del lenguaje natural. Sin embargo, los métodos tradicionales de ajuste fino son costosos para los LLMs, lo que ha llevado al desarrollo de técnicas de ajuste de instrucciones continuas que utilizan incrustaciones de instrucciones entrenables sin modificar los parámetros de los LLMs. Sin embargo, estos métodos aún requieren acceso a los parámetros de los LLMs y no son adecuados para los LLMs a los que se accede a través de APIs de caja negra como GPT-3 y GPT-4.
Este artículo presenta las siguientes contribuciones:
- Introducción de EVOPROMPT: Los autores presentan un nuevo marco de trabajo, EVOPROMPT, para automatizar la optimización de instrucciones discretas. Este marco conecta los Modelos de Lenguaje Grandes (LLMs) con Algoritmos Evolutivos (EAs) y ofrece varias ventajas:
- No requiere acceso a los parámetros o gradientes de los LLMs.
- Equilibra de manera efectiva la exploración y la explotación, lo que conduce a mejores resultados.
- Genera instrucciones que son fácilmente comprensibles por los humanos.
- Evidencia Empírica: A través de experimentos realizados en nueve conjuntos de datos diferentes, el artículo proporciona evidencia empírica que muestra la efectividad de EVOPROMPT en comparación con los métodos existentes. Demuestra mejoras en el rendimiento de hasta un 14% en diversas tareas, como clasificación de sentimientos, clasificación de temas, clasificación de subjetividad, simplificación y resumen.
- Publicación de Instrucciones Óptimas: Los autores realizan una valiosa contribución al publicar las instrucciones óptimas obtenidas a través de EVOPROMPT para tareas comunes. Estas instrucciones pueden ser utilizadas por la comunidad de investigación y por profesionales en tareas relacionadas con el análisis de sentimientos, la clasificación de temas, la clasificación de subjetividad, la simplificación y el resumen.
- Uso Innovador de los LLMs: Este artículo pionero en el concepto de utilizar los LLMs para implementar algoritmos evolutivos cuando se les proporcionan instrucciones adecuadas. Este enfoque novedoso amplía las aplicaciones potenciales de combinar los LLMs con algoritmos tradicionales.
Para poner EVOPROMPT en uso práctico, es esencial combinarlo con un Algoritmo Evolutivo (EA) específico. Hay varios tipos de EAs disponibles, y este artículo se centra en dos algoritmos ampliamente reconocidos: Algoritmo Genético (GA) y Diferencial Evolutivo (DE).
- Investigadores de la Universidad de Oregon y Adobe presentan CulturaX un conjunto de datos multilingüe con 6,3T de tokens en 167 idiomas diseñado para el desarrollo de modelos de lenguaje grandes (LLM).
- Mejorando tus LLMs con RLHF en Amazon SageMaker
- Satélites Sentinel mapean superemisores de metano
La imagen anterior muestra el proceso de GA implementado por los LLMs para la optimización de instrucciones discretas. Los investigadores creen que los LLMs ofrecen una interfaz efectiva e interpretable para implementar algoritmos tradicionales, asegurando una buena alineación con la comprensión y comunicación humanas. Los hallazgos corroboran una tendencia reciente en la que los LLMs realizan “Descenso del Gradiente” en el espacio discreto al recolectar muestras incorrectamente predichas.
Existen oportunidades de investigación adicionales para investigar el alcance completo de las capacidades de los Modelos de Lenguaje Grandes (LLMs) en la ejecución de una amplia variedad de algoritmos a través de interacciones con humanos utilizando instrucciones en lenguaje natural. Algunas ideas exploratorias potenciales incluyen si los LLMs pueden generar soluciones potenciales en algoritmos sin derivadas, como el Recocido Simulado.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Reduciendo las alucinaciones de IA con la generación aumentada por recuperación
- Análisis de datos reinventado de los paneles de control al copiloto de IA
- Potenciando la recuperación contextual de documentos aprovechando GPT-2 y LlamaIndex
- Computación Cognitiva Definición, Funcionamiento, Ejemplos y Más
- Python Causal Cinco Ideas Novedosas de Causalidad en NeurIPS 2023
- ¿Cómo afecta la anonimización de imágenes al rendimiento de la visión por computadora? Explorando técnicas de anonimización tradicionales vs. realistas
- Investigadores de China presentan un conjunto de datos de múltiples vistas a gran escala y del mundo real llamado ‘FreeMan