Descifrando la verdad de los datos Cómo los modelos de lenguaje grandes utilizan las personas para modelar la veracidad
Con la introducción de los Modelos de Lenguaje Grande (LLMs), el subcampo de la Inteligencia Artificial, es decir, el Procesamiento del Lenguaje Natural (NLP), está avanzando y mejorando significativamente. Los LLMs, con sus notables habilidades de interpretación y generación de texto, se están volviendo populares cada día. Estos modelos están pre-entrenados utilizando volúmenes masivos de datos de internet, los mejores ejemplos de los cuales son los conocidos modelos GPT 3.5 y GPT 4. Aunque los datos en los que se entrenan los modelos, es decir, el corpus, es grande y variado, está lejos de ser ideal. Es no filtrado y ruidoso e incluye información falsa, así como errores factuales. Surge la pregunta de cómo los LLMs distinguen entre verdad y falsedad cuando se les presenta un corpus de datos que contiene ambas cosas.
En un estudio reciente, un equipo de investigadores de la Universidad de Nueva York, ETH Zurich y la Universidad de Boston propuso que los LLMs pueden agrupar texto veraz, partiendo de la premisa de que estos modelos podrían representar diferentes agentes o fuentes que contribuyen a los datos de entrenamiento. Llamándolo una ‘personalidad veraz’, los investigadores han compartido que esta personalidad representa una colección de agentes que, debido a características compartidas de creación de texto, es más probable que generen información precisa y confiable.
Por ejemplo, sitios reputados y bien establecidos como Science y Wikipedia utilizan con frecuencia estilos de escritura formales y brindan información factual de manera regular. Los LLMs son capaces de ofrecer respuestas genuinas fuera de las situaciones particulares en las que cada agente produjo los datos de entrenamiento al modelar esta personalidad veraz. El equipo ha compartido dos observaciones principales para respaldar la hipótesis de la personalidad, que son las siguientes.
- OpenAI desvela GPT-4 Turbo Un avance personalizable hacia el futuro de la inteligencia artificial
- Los robots reciben una mejora ‘gripante’ ¡AO-Grasp enseña a los bots el arte de no dejar caer tus cosas!
- Este artículo de IA revela DiffEnc Avanzando en los modelos de difusión para mejorar el rendimiento generativo
- Evaluación de Veracidad Pre-generación: Incluso antes de que un modelo genere una respuesta, es factible determinar si será veraz. Esto sugiere que, dependiendo de la situación y la personalidad del agente fuente, el LLM puede evaluar la veracidad de una respuesta.
- Mejora de la Veracidad mediante la Afinación Fina: Cuando los LLMs se afinan utilizando una colección de hechos factuales, se vuelven más veraces tanto en problemas no relacionados como directamente relacionados. Esto sugiere que el impacto de la personalidad verdadera permite que el modelo generalice principios de veracidad a una variedad de temas.
El equipo ha evaluado la asociación entre las personalidades y la honestidad del modelo utilizando un entorno sintético y procesos matemáticos. Diferentes agentes en este escenario controlado creen diferentes cosas sobre cada operador matemático, dependiendo de lo veraces o incorrectas que sean sus creencias. Las ecuaciones de estos agentes permiten que los LLMs mejoren su capacidad para responder a operadores previamente desconocidos de manera precisa y distingan entre afirmaciones verdaderas y falsas con éxito. Este logro solo es posible si los actores en los datos de entrenamiento comparten un proceso generativo veraz que permite la construcción de una identidad veraz.
En conclusión, este estudio muestra que los LLMs pueden adquirir conceptos abstractos como la veracidad utilizando las estructuras jerárquicas incluidas en sus datos de entrenamiento. Estos modelos pueden generalizar su capacidad para distinguir entre información verdadera y falsa y generar respuestas adecuadas en una amplia gama de temas al modelar una personalidad genuina, incluso cuando los agentes fuente para estos temas comparten atributos sugestivos de sinceridad.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Guía de las configuraciones avanzadas de ChatGPT Top P, penalizaciones de frecuencia, temperatura y más
- La historia de los LLM de código abierto Los primeros días (Parte uno)
- Desmitificando la Matriz de Rotación
- LoRA – Explicado de forma intuitiva y exhaustiva
- Aprendizaje automático en la prueba de software
- ¡Gen-AI Diversión, Miedo y Futuro!
- Transmisión de respuestas de modelos de lenguaje amplios en Amazon SageMaker JumpStart