¿Pueden los modelos de lenguaje grandes realmente hacer matemáticas? Esta investigación de inteligencia artificial AI presenta MathGLM un modelo robusto para resolver problemas matemáticos sin una calculadora.

¿Los modelos de lenguaje grandes pueden hacer matemáticas? Presentamos MathGLM, un modelo AI para resolver problemas matemáticos sin calculadora.

Cuando se trata de tareas de procesamiento del lenguaje natural (NLP) posteriores, los grandes modelos de lenguaje (LLMs) han demostrado ser excepcionalmente efectivos. Para generar respuestas coherentes y contextualmente relevantes, modelos pioneros como GPT4 y ChatGPT se han entrenado con grandes volúmenes de datos de texto. Sus habilidades de comprensión y generación de texto los hacen extremadamente flexibles para su uso en una amplia gama de aplicaciones de NLP. Se cree comúnmente que los LLMs tienen dificultades para realizar procedimientos aritméticos complejos de manera precisa, como multiplicar números con más de ocho dígitos o realizar operaciones que involucren decimales o fracciones. Si bien GPT-4 ha demostrado capacidades sobresalientes en diversas tareas de NLP, es posible que no demuestre el mismo grado de competencia en el pensamiento matemático.

Investigadores de la Universidad de Tsinghua, TAL AI Lab y Zhipu.AI investigan las habilidades matemáticas de los LLMs en un esfuerzo por desmentir estas creencias falsas. Su trabajo reciente sugiere MathGLM, un modelo robusto cuidadosamente construido para ejecutar una amplia gama de operaciones aritméticas difíciles. Logra el mejor rendimiento comparable a los principales LLMs de la industria como GPT-4. La adición, sustracción, multiplicación, división y exponentiación son ejemplos de operaciones aritméticas, al igual que el uso de paréntesis para combinar varios tipos de aritmética. Llevan a cabo procedimientos de “1-operación atómica”, que se realizan individualmente, sin integrarse con otros procedimientos. Cabe destacar que MathGLM puede realizar fácilmente operaciones aritméticas con cualquier tipo de número, ya sean enteros, decimales, fracciones, porcentajes o incluso números negativos.

El conjunto de datos Ape210K recopila problemas matemáticos verbales de Internet y proporciona una fuente integral de dificultades matemáticas. Este conjunto de datos ayuda a entrenar a MathGLM porque tiene varios tipos de problemas. El conjunto de datos original es único en el sentido de que contiene respuestas que se calcularon explícitamente. Sin embargo, el equipo destaca que una posible consecuencia del enfoque sin adornos de MathGLM para presentar respuestas es que puede no reconocer importantes principios y patrones de cálculo subyacentes.

Los investigadores utilizan el enfoque paso a paso para reconstruir el conjunto de datos Ape210K y superar esta posible limitación y mejorar la capacidad de MathGLM para resolver problemas matemáticos verbales. MathGLM puede crear respuestas a problemas matemáticos verbales con alta precisión al descomponer el complejo proceso de cálculo aritmético en una serie de fases secuenciales.

Sus extensas pruebas y análisis en profundidad demuestran el razonamiento matemático superior de MathGLM sobre GPT-4. MathGLM ofrece una impresionante ganancia absoluta del 42,29% en la precisión de las respuestas en comparación con el ajuste fino en el conjunto de datos original. El rendimiento de MathGLM en un conjunto de datos de 5,000 problemas matemáticos verbales es muy similar al de GPT-4 después de ser ajustado fino desde el GLM-10B. Al descomponer los problemas aritméticos verbales en sus pasos constituyentes, MathGLM puede comprender completamente el intrincado proceso de cálculo, aprender las reglas de cálculo subyacentes y producir resultados más confiables.

Estos hallazgos desafían en gran medida la sabiduría convencional de que los LLMs no pueden manejar tareas aritméticas difíciles, revelando así su capacidad excepcional para prosperar en el pensamiento matemático.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Una revisión exhaustiva de los modelos de difusión de video en el Contenido Generado por Inteligencia Artificial (CGIA)

La Inteligencia Artificial está en auge, al igual que su subcampo, es decir, el dominio de la Visión por Computadora....

Inteligencia Artificial

Hoja de ruta de Aprendizaje Automático Recomendaciones de la Comunidad 2023

En el último artículo, Parte 1 de este mapa de ruta, discutimos brevemente las herramientas iniciales y las direccion...

Inteligencia Artificial

Un experto de la industria impulsa una alternativa abierta a la inteligencia artificial de las grandes empresas tecnológicas.

El Instituto Allen para la IA, una organización sin fines de lucro liderada por un respetado científico informático q...

Inteligencia Artificial

¡Abrocha tu cinturón ¡El Falcon 180B está aquí!

Vamos a sumergirnos en el modelo de lenguaje abierto más grande del mundo.

Inteligencia Artificial

Una guía para principiantes sobre LLMOps para ingeniería de aprendizaje automático

Introducción El lanzamiento de ChatGPT de OpenAI ha generado mucho interés en los grandes modelos de lenguaje (LLMs, ...

Inteligencia Artificial

Conoce a EAGLE Un nuevo método de aprendizaje automático para decodificación rápida de LLM basado en compresión.

Los Grandes Modelos de Lenguaje (LLMs, por sus siglas en inglés) como ChatGPT han revolucionado el procesamiento del ...