¿Podemos evitar que los LLMs alucinen?

¿Evitar alucinaciones en LLMs?

Opinión

Uno de los mayores obstáculos para la adopción generalizada de LLM puede ser inherentemente insoluble.

Foto de Google DeepMind en Unsplash

Aunque los Modelos de Lenguaje Grande (LLMs) han captado la atención de casi todos, la implementación a gran escala de esta tecnología está ligeramente limitada debido a un aspecto bastante molesto: estos modelos tienden a alucinar. En términos simples, a veces inventan cosas y, lo peor de todo, a menudo parece muy convincente.

Las alucinaciones, frecuentes o no, traen consigo dos problemas principales. No se pueden implementar directamente en muchos campos sensibles o frágiles donde un solo error puede ser muy costoso. Además, genera desconfianza generalizada, ya que se espera que los usuarios verifiquen todo lo que proviene de un LLM, lo que, al menos en parte, va en contra del propósito de esta tecnología.

La academia parece también considerar que las alucinaciones son un problema importante, ya que hay docenas de artículos de investigación en 2023 que discuten y tratan de resolver el problema. Sin embargo, yo tiendo a estar de acuerdo con Yann LeCun, el científico jefe de IA de Meta, en que las alucinaciones no son resolubles en absoluto. Necesitaríamos una renovación completa de la tecnología para eliminar el problema.

Alucinaciones de declaraciones falsas

Hay dos aspectos importantes de cualquier LLM que, creo, hacen que las alucinaciones sean insolubles. Comenzando con el fundamento tecnológico bastante obvio, los LLM, al igual que cualquier otro modelo de aprendizaje automático, son estocásticos por naturaleza. En términos simples, hacen predicciones.

Aunque sin duda son mucho más avanzados que un “autocompletado glorificado”, la tecnología subyacente aún utiliza predicciones estadísticas sobre los tokens. Es tanto una fortaleza como una debilidad de los LLM.

En cuanto a la parte fuerte, hemos visto lo increíblemente buenos que son para predecir lo que debería seguir después de una entrada (excepto cualquier intento intencional de arruinar la salida). Los usuarios pueden cometer varios tipos de errores, como dejar un error tipográfico, malinterpretar el significado de una palabra, etc., y es probable que los LLM aún obtengan la salida correcta.

En los primeros juegos de texto, se les pedía a los usuarios que ingresaran comandos sin errores o margen para la interpretación. Un comando como “moverse al norte” daría un error si el usuario ingresara “moverse al morte”. Sin embargo, un LLM podría inferir el significado en ambos casos. En ese sentido, la tecnología es realmente fascinante.

Sin embargo, también muestra una debilidad. Cualquier entrada tiene un amplio árbol de decisiones potenciales para la elección de tokens. En términos simples, siempre hay una amplia gama de formas en las que un modelo puede crear una salida. De esa amplia gama, un fragmento relativamente pequeño es la decisión “correcta”.

Aunque existen numerosas opciones de optimización disponibles, el problema en sí no es soluble. Por ejemplo, si aumentamos la probabilidad de proporcionar una respuesta específica, el LLM se convierte en una tabla de búsqueda, por lo que debemos mantener un equilibrio. La tecnología subyacente se basa simplemente en predicciones estocásticas y debe haber margen para una gama más amplia de tokens de salida proporcionados.

Pero hay otro problema que los LLM no pueden resolver, al menos en su estado actual. Es un poco más efímero y abstracto, ya que se relaciona con la epistemología, el campo de la filosofía que estudia la naturaleza del conocimiento. A simple vista, el problema es simple: ¿cómo sabemos qué declaraciones son verdaderas y cómo adquirimos dicho conocimiento? Después de todo, una alucinación es simplemente un conjunto de declaraciones falsas post hoc, por lo que si pudiéramos encontrar una forma de que el modelo verificara que ha realizado una declaración falsa y la eliminara, se resolvería el problema.

Separando las alucinaciones de las declaraciones veraces

Siguiendo los pasos de la filosofía, podemos separar dos tipos de declaraciones posibles: analíticas y sintéticas. Las primeras son declaraciones que son verdaderas por definición (uno de los ejemplos más comunes es “un soltero es un hombre soltero”). En términos simples, podemos encontrar declaraciones que son verdaderas al analizar el lenguaje mismo y no se requiere experiencia externa.

Las declaraciones sintéticas son cualquier declaración que es verdadera por alguna forma de experiencia, como “hay una manzana en la mesa frente a mí”. No hay forma de saber si tal declaración es verdadera sin referirse a la experiencia directa. El análisis lingüístico puro no sirve para determinar si es verdadera o falsa.

Debo señalar que la distinción entre estas afirmaciones ha sido objeto de acalorados debates durante cientos de años, pero la discusión es en gran medida irrelevante para los LLM. Como su nombre indica, son una máquina altamente avanzada de análisis y predicción lingüística.

Tras la distinción entre los dos tipos, podemos ver que los LLM no tendrían ningún problema con las afirmaciones analíticas (o al menos no tanto como los humanos). Sin embargo, no tienen acceso a la experiencia o al mundo en general. No hay forma de que sepan que algunas afirmaciones son verdaderas por virtud de un evento.

El problema principal es que el número de afirmaciones analíticas es significativamente menor que el conjunto de todas las afirmaciones sintéticas. Dado que un LLM no tiene forma de verificar si estas afirmaciones son verdaderas, nosotros, como humanos, debemos proporcionarles esa información.

Como tal, los LLM se enfrentan a un desafío. El conjunto de todas las posibles salidas siempre tendrá algún número de afirmaciones sintéticas, pero para el modelo, todas ellas son agnósticas en cuanto a su valor de verdad. En términos simples, “el asesino de Julio César fue Bruto” (hubo muchos, pero para este caso no importa) y “el asesino de Julio César fue Abraham Lincoln” son equivalentes para un modelo.

Un contraargumento podría ser que nosotros tampoco hemos tenido ninguna experiencia directa sobre esos eventos. Solo los hemos leído en libros. Pero el descubrimiento de la veracidad de la afirmación se basa en una reconstrucción de relatos sobrevivientes y una amplia gama de otras evidencias arqueológicas.

Un ejemplo más simple de una afirmación (aunque menos relevante) sería “está lloviendo hoy”. Dichas afirmaciones son imposibles de determinar como verdaderas para un LLM, ya que necesita acceso a la experiencia del mundo real en el momento de la consulta.

En cierto sentido, el problema epistemológico se resuelve por sí mismo. Nuestro corpus literario haría que la salida “el asesino de Julio César fue Bruto” sea significativamente más probable debido a que está presente con más frecuencia. Sin embargo, nuevamente, el problema es que dicha solución autónoma se basa en entrenar a un LLM con absolutamente toda la información textual disponible, lo cual, obviamente, es imposible. Además, eso haría que otras salidas menos verídicas no estén completamente ausentes del conjunto de todas las posibles salidas.

Como tal, la calidad de los datos se convierte en un factor importante, pero esa calidad solo puede ser juzgada por observadores humanos. Incluso en casos en los que los modelos se entrenan con enormes cantidades de datos, hay un cierto proceso de selección que tiene lugar, lo que significa que la tasa de error para las afirmaciones sintéticas no se puede eliminar por completo.

Conclusión

Creo que el problema de evitar que los modelos alucinen es insoluble. Por un lado, la tecnología misma se basa en un proceso estocástico, lo que inevitablemente, a lo largo de un gran número de salidas, llevará a predicciones erróneas.

Además del obstáculo tecnológico, está la cuestión de si los LLM pueden hacer juicios de valor de verdad sobre las afirmaciones, lo cual, nuevamente, creo que es imposible ya que no tienen acceso al mundo real. El problema se atenúa ligeramente por diversas funciones de los motores de búsqueda que ahora están disponibles para muchos LLM, según las cuales pueden verificar ciertas afirmaciones.

Es posible, sin embargo, recopilar una base de datos contra la cual se puedan probar las afirmaciones, pero eso requeriría algo más allá de la tecnología misma, lo que nos lleva de vuelta al problema inicial.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Tesla retira 2 millones de autos con controles de seguridad de 'autoguiado' insuficientes

Tesla está retirando más de 2 millones de vehículos para solucionar los sistemas de Autopilot que los reguladores gub...

Inteligencia Artificial

Deblur AI de Google Afilado de tus imágenes

En nuestra era digital en constante evolución, donde capturar y compartir momentos a través de la fotografía se ha co...

Inteligencia Artificial

¿Podemos superar la fragilidad inmediata en los modelos de lenguaje grandes? La IA de Google presenta la calibración por lotes para un rendimiento mejorado.

Los modelos de lenguaje grandes han surgido recientemente como herramientas poderosas para diversas tareas de compren...

Inteligencia Artificial

IA y el futuro del fútbol universitario

El panorama del atletismo universitario ha vuelto a cambiar gracias al dinero y al fútbol americano. La SEC fue la pr...

Inteligencia Artificial

Nueva investigación de IA de KAIST presenta FLASK un marco de evaluación de granularidad fina para modelos de lenguaje basado en conjuntos de habilidades

Increíblemente, los LLM han demostrado estar en sintonía con los valores humanos, brindando respuestas útiles, honest...