Estudio intenta desbloquear el potencial de las LLMs en la resolución de problemas matemáticos

Investigación busca desvelar el potencial de las LLMs en la resolución de problemas matemáticos

En el siempre cambiante panorama de la inteligencia artificial, incluso los LLM más avanzados, como GPT-4 y PaLM 2, enfrentan desafíos cuando se trata de resolver problemas matemáticos complejos. Un reciente estudio realizado por investigadores de Google y Yale espera arrojar luz sobre cómo los LLM pueden superar estos obstáculos y mejorar significativamente sus capacidades para resolver problemas aritméticos.

El estudio, realizado con el modelo PaLM 2 en sus formas pequeñas (PaLM 2-S) y grandes (PaLM 2-L), revela interesantes ideas sobre el potencial de los LLM. Inicialmente, la investigación muestra que los modelos tienen una mayor probabilidad de descubrir respuestas precisas cuando se les permite abordar un problema varias veces.

Por ejemplo, el PaLM 2-L preentrenado logra una impresionante precisión del 33.4% con decodificación codiciosa; pero, el estudio enfatiza que este rendimiento se puede mejorar aún más. Al muestrear 64 soluciones utilizando muestreo de temperatura, en un asombroso 79.4% de las veces, hay al menos una respuesta precisa (pass@64).

Esta discrepancia destaca la capacidad de los LLM para generar soluciones precisas mientras luchan por discernir entre respuestas correctas y erróneas. Para cerrar esta brecha de rendimiento, los investigadores exploran tres técnicas de ajuste fino:

  1. Ajuste Fino de Solución Paso a Paso Supervisada (SSFT): El estudio investiga si los LLM preentrenados pueden beneficiarse de un paso de ajuste fino supervisado, con el objetivo de proporcionar una técnica de punto de partida. Los LLM se ajustan para proporcionar soluciones y respuestas completas.
  2. Reclasificación de Clústeres de Soluciones (SCR): Esta técnica se centra en perfeccionar el generador como un evaluador de soluciones para la reclasificación de soluciones candidatas. Los investigadores introducen un método novedoso que combina las ventajas del voto mayoritario con la reclasificación, categorizando eficientemente las respuestas candidatas en grupos basados en su equivalencia matemática.
  3. Ajuste Fino Multi-tarea Secuencial: Además de la evaluación de soluciones, el estudio profundiza en el mejoramiento del rendimiento de los LLM en la generación de soluciones. Al enmarcar la tarea de evaluación de soluciones como un problema de generación de lenguaje natural, los investigadores buscan utilizarla como una supervisión valiosa para el modelo de generación de soluciones, ajustándolo en tres etapas.

Los hallazgos del estudio sobre PaLM 2-S y PaLM 2-L destacan varias conclusiones clave. La dependencia de SSFT en respuestas bien formateadas. La calidad y el estilo de las soluciones paso a paso influyen significativamente en el modelo refinado.

Eficiencia de la reclasificación de clústeres de soluciones comunes: La reclasificación solo de los clústeres de soluciones más comunes produce un mejor rendimiento y mayor eficiencia computacional, presentando una posible práctica estándar para trabajos futuros.

Beneficios del entrenamiento de doble tarea: Entrenar el modelo tanto para la generación como para la evaluación de soluciones demuestra un mejor rendimiento. El ajuste fino secuencial de múltiples tareas propuesto resulta más efectivo en mejorar el modelo de generación de soluciones en comparación con el ajuste fino supervisado de soluciones por sí solo.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Robot puede ordenar la ropa en un dormitorio desordenado

Ken Goldberg en la Universidad de California, Berkeley, y sus colegas desarrollaron un sistema de robots para recoger...

Inteligencia Artificial

Investigadores de OpenAI pioneros en modelos avanzados de consistencia para muestreo de datos de alta calidad sin entrenamiento adversario'.

Los modelos de consistencia representan una categoría de modelos generativos diseñados para generar datos de alta cal...

Inteligencia Artificial

AI Sesgo Desafíos y Soluciones

¿De dónde proviene el sesgo en la inteligencia artificial? Una vez que lo encontramos, ¿cómo podemos reducirlo o elim...

Inteligencia Artificial

Se analiza el sonido de la tos para identificar la gravedad de los pacientes de COVID-19

Un estudio identificó características tos que pueden ayudar a evaluar la gravedad de la COVID-19 y permitir el monito...

Ciencias de la Computación

Prodigio de preadolescencia se gradúa de la Universidad de Santa Clara.

Kairan Quazif, de 14 años, es la persona más joven en graduarse de la Universidad de Santa Clara en California, habie...

Inteligencia Artificial

Acelerando el tiempo para obtener conocimientos con las colecciones de series temporales de MongoDB y Amazon SageMaker Canvas

Este es un artículo de invitado escrito conjuntamente con Babu Srinivasan de MongoDB. A medida que las industrias evo...