Luchando contra los ‘hechos’ falsos con dos pequeñas palabras
Luchando contra los 'hechos' falsos con dos palabras
Investigadores de la Universidad Johns Hopkins (JHU) han desarrollado un método para disminuir las alucinaciones provocadas por los modelos de lenguaje grande (LLMs) al incluir “según” en las consultas de LLM.
Utilizando este método, los LLMs son dirigidos a citar fuentes confiables en sus datos de entrenamiento, en lugar de producir respuestas falsas.
Los investigadores utilizaron Data Portraits, una herramienta desarrollada previamente en JHU, para verificar si las respuestas del LLM estaban presentes en el conjunto de datos de entrenamiento sin descargar grandes cantidades de texto.
Observaron que el puntaje QUIP (Precisión de Información Citada) de un LLM aumentó entre un 5% y un 15% cuando se incorporó la indicación de fundamentación “según” en las consultas.
- EE.UU. busca malware chino que podría interrumpir las operaciones militares
- Los robots submarinos podrían abrir paso a un futuro de alta tecnología para la minería en aguas profundas
- SQL para Ciencia de Datos Comprender y Aprovechar las Uniones
Las indicaciones de fundamentación también generaron respuestas más detalladas y precisas en general.
Dijo Daniel Khashabi de JHU: “Nuestro objetivo es que los modelos tengan acceso a contenido útil, como cadenas memorizadas de documentos de alta calidad o confiables”.
Debido a que la precisión de las respuestas depende de la calidad del conjunto de datos de entrenamiento, el método puede filtrar datos de sitios web no confiables. De Johns Hopkins University Hub Ver artículo completo
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- GPT y más allá Los fundamentos técnicos de los LLMs
- Actores que apoyan el uso de la IA, y aquellos que no lo hacen
- 5 Millonarios Utilizando ChatGPT
- Sistemas de IA Sesgos desenterrados y la apasionante búsqueda de la verdadera equidad
- La Sintonización de Símbolos de Google es una nueva técnica de ajuste fino que permite el aprendizaje en contexto en LLMs
- 7 Pasos para Dominar las Técnicas de Limpieza y Preprocesamiento de Datos
- El gigante del streaming Netflix lista trabajo de Inteligencia Artificial a $900,000 mientras continúa la huelga de escritores