Investigadores de Stanford presentan Parsel un marco de inteligencia artificial (IA) que permite la implementación y validación automática de algoritmos complejos con modelos de lenguaje de código grande (LLMs).
Investigadores de Stanford presentan Parsel, un marco de IA que automatiza la implementación y validación de algoritmos complejos con LLMs.
Aunque se han realizado avances recientes en el razonamiento de modelos de lenguaje de gran tamaño (LLM), los LLM todavía tienen dificultades con tareas de razonamiento jerárquico de múltiples pasos, como desarrollar programas sofisticados. Los programadores humanos, a diferencia de otros generadores de tokens, han aprendido (por lo general) a descomponer tareas difíciles en componentes manejables que funcionan de forma independiente (modulares) y funcionan en conjunto (compositivos). Además, si los tokens generados por humanos causan problemas con una función, debería ser posible reescribir esa parte del software sin afectar el resto de la aplicación. En contraste, se espera ingenuamente que los LLM de código produzcan secuencias de tokens libres de errores.
Esto llevó a un estudio reciente de la Universidad de Stanford a investigar el uso de LLM en la descomposición de problemas y la construcción de soluciones compositivas. Proponen Parsel, un compilador que acepta una especificación que incluye descripciones de funciones escritas en lenguaje natural y restricciones que definen el comportamiento deseado de las funciones implementadas. Al utilizar Parsel, los programadores pueden escribir programas en lenguaje sencillo que pueden abordar problemas de programación a nivel de competencia, superando el estado del arte anterior en más del 75%.
Un LLM de código recibe la descripción de una función y las firmas de las funciones de las que depende, y se le pide que genere implementaciones de la función. Cuando se agrega una restricción, el compilador buscará entre las posibles combinaciones de implementación hasta encontrar una que funcione.
- Un nuevo enfoque de investigación de Inteligencia Artificial (IA) presenta el Aprendizaje Basado en Instrucciones en Contexto como un problema de aprendizaje de algoritmos desde una perspectiva estadística.
- Investigadores de la Universidad de Binghamton presentan un sistema de anonimización que mejora la privacidad (Mi Rostro, Mi Elección) para que todos puedan tener control sobre sus rostros en las redes sociales de intercambio de fotos.
- La aplicación ChatGPT de OpenAI presenta una función de navegación con integración de Bing.
Estudios anteriores han demostrado que, a diferencia de los humanos, los modelos de lenguaje de código no pueden desarrollar programas que realicen secuencialmente numerosas tareas pequeñas. Parsel elimina el problema mediante la partición de los procesos de descomposición e implementación. Aunque su intención era permitir la codificación en lenguaje natural, descubrieron que los LLM también se destacan en la codificación de Parsel.
La descomposición de un plan abstracto hasta que pueda resolverse automáticamente es un patrón común en el razonamiento humano que se refleja en la generación e implementación de Parsel; esta estructura compositiva también es útil para los modelos de lenguaje. En este estudio, el equipo demuestra que los LLM pueden crear Parsel a partir de un pequeño número de instancias y que sus soluciones superan a los métodos de última generación en problemas de nivel de competencia del conjunto de datos APPS. Los planes escritos por los LLM utilizando Parsel para producir planes robóticos paso a paso a partir de trabajos de alto nivel son, emocionantemente, más precisos que un planificador de cero disparos en más de dos tercios.
Para evaluar la eficacia de Parsel, Gabriel Poesia, un experimentado programador de competencias, lo utilizó para resolver una serie de desafíos de APPS que se suelen ver en competiciones de programación. En 6 horas, encontró soluciones a 5 de 10 problemas, incluyendo 3 en los que GPT-3 había fallado anteriormente.
Los investigadores demuestran que Parsel se puede utilizar para demostración de teoremas y otras actividades que requieren razonamiento algorítmico formulándolo como un marco de propósito general.
Planean implementar la generación automática de pruebas unitarias autónomas en un futuro próximo. Mencionan que un enfoque sería buscar situaciones especiales y ver si el grupo de funciones que están de acuerdo en todas las pruebas existentes también están de acuerdo en cualquier prueba nueva. Se evita el crecimiento exponencial en las combinaciones de implementación, lo que podría hacer posible la descomposición automática. También tienen como objetivo ajustar el “umbral de confianza” del modelo de lenguaje, ya que es necesario mantener las descripciones claras y concisas para programas más importantes o secciones de programas, es necesario asegurarse de que las descripciones sean claras y concisas.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Investigadores de ETH Zurich y Max Plank proponen HOOD un nuevo método que aprovecha redes neuronales gráficas, paso de mensajes multinivel y entrenamiento no supervisado para permitir la predicción eficiente de la dinámica realista de la ropa.
- Investigadores del MIT introducen la técnica de Restart Sampling para mejorar los procesos generativos.
- Microsoft Research presenta phi-1 un nuevo modelo de lenguaje grande especializado en la codificación de Python con un tamaño significativamente más pequeño que los modelos competidores.
- Investigadores de Princeton presentan Infinigen un generador procedural de escenas tridimensionales fotorrealistas del mundo natural.
- Una nueva investigación de IA de Stanford, Cornell y Oxford presenta un modelo generativo que descubre intrínsecos de objetos a partir de solo unas pocas instancias en una sola imagen.
- Abordando la brecha de generalización del AI Investigadores de University College London proponen Spawrious – una suite de referencia de clasificación de imágenes que contiene correlaciones espurias entre clases y fondos.
- Revolutionizando la síntesis de texto a imagen investigadores de UC Berkeley utilizan modelos de lenguaje grandes en un proceso de generación de dos etapas para mejorar el razonamiento espacial y del sentido común.