Descifrando la verdad de los datos Cómo los modelos de lenguaje grandes utilizan las personas para modelar la veracidad

Con la introducción de los Modelos de Lenguaje Grande (LLMs), el subcampo de la Inteligencia Artificial, es decir, el Procesamiento del Lenguaje Natural (NLP), está avanzando y mejorando significativamente. Los LLMs, con sus notables habilidades de interpretación y generación de texto, se están volviendo populares cada día. Estos modelos están pre-entrenados utilizando volúmenes masivos de datos de internet, los mejores ejemplos de los cuales son los conocidos modelos GPT 3.5 y GPT 4. Aunque los datos en los que se entrenan los modelos, es decir, el corpus, es grande y variado, está lejos de ser ideal. Es no filtrado y ruidoso e incluye información falsa, así como errores factuales. Surge la pregunta de cómo los LLMs distinguen entre verdad y falsedad cuando se les presenta un corpus de datos que contiene ambas cosas.

En un estudio reciente, un equipo de investigadores de la Universidad de Nueva York, ETH Zurich y la Universidad de Boston propuso que los LLMs pueden agrupar texto veraz, partiendo de la premisa de que estos modelos podrían representar diferentes agentes o fuentes que contribuyen a los datos de entrenamiento. Llamándolo una ‘personalidad veraz’, los investigadores han compartido que esta personalidad representa una colección de agentes que, debido a características compartidas de creación de texto, es más probable que generen información precisa y confiable.

Por ejemplo, sitios reputados y bien establecidos como Science y Wikipedia utilizan con frecuencia estilos de escritura formales y brindan información factual de manera regular. Los LLMs son capaces de ofrecer respuestas genuinas fuera de las situaciones particulares en las que cada agente produjo los datos de entrenamiento al modelar esta personalidad veraz. El equipo ha compartido dos observaciones principales para respaldar la hipótesis de la personalidad, que son las siguientes.

  1. Evaluación de Veracidad Pre-generación: Incluso antes de que un modelo genere una respuesta, es factible determinar si será veraz. Esto sugiere que, dependiendo de la situación y la personalidad del agente fuente, el LLM puede evaluar la veracidad de una respuesta.
  1. Mejora de la Veracidad mediante la Afinación Fina: Cuando los LLMs se afinan utilizando una colección de hechos factuales, se vuelven más veraces tanto en problemas no relacionados como directamente relacionados. Esto sugiere que el impacto de la personalidad verdadera permite que el modelo generalice principios de veracidad a una variedad de temas.

El equipo ha evaluado la asociación entre las personalidades y la honestidad del modelo utilizando un entorno sintético y procesos matemáticos. Diferentes agentes en este escenario controlado creen diferentes cosas sobre cada operador matemático, dependiendo de lo veraces o incorrectas que sean sus creencias. Las ecuaciones de estos agentes permiten que los LLMs mejoren su capacidad para responder a operadores previamente desconocidos de manera precisa y distingan entre afirmaciones verdaderas y falsas con éxito. Este logro solo es posible si los actores en los datos de entrenamiento comparten un proceso generativo veraz que permite la construcción de una identidad veraz.

En conclusión, este estudio muestra que los LLMs pueden adquirir conceptos abstractos como la veracidad utilizando las estructuras jerárquicas incluidas en sus datos de entrenamiento. Estos modelos pueden generalizar su capacidad para distinguir entre información verdadera y falsa y generar respuestas adecuadas en una amplia gama de temas al modelar una personalidad genuina, incluso cuando los agentes fuente para estos temas comparten atributos sugestivos de sinceridad.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Investigación

Los investigadores utilizan la IA para identificar materiales similares en imágenes.

Este método de aprendizaje automático podría ayudar en la comprensión de escenas robóticas, la edición de imágenes o ...

Inteligencia Artificial

GPT-4 8 Modelos en Uno; El Secreto ha Sido Revelado

GPT4 mantuvo el modelo en secreto para evitar la competencia, ¡ahora el secreto está revelado!

Ciencia de Datos

Los investigadores del MIT hacen que los modelos de lenguaje sean autoaprendices escalables.

Los científicos utilizaron un conjunto de datos de inferencia lógica basado en lenguaje natural para crear modelos de...

Inteligencia Artificial

Técnicas de muestreo y comparación prácticas, en Python

Estaba poniendo el árbol de Navidad con mi esposa. Fuimos al sótano, cogimos el árbol, lo llevamos arriba y empezamos...

Inteligencia Artificial

Meet TableGPT Un marco unificado ajustado que permite a los LLM comprender y operar en tablas utilizando comandos funcionales externos

Las tablas se utilizan con frecuencia para representar el vasto y complejo mundo de los datos y sirven como base para...