Investigadores de UC Berkeley introducen Ghostbuster un método de IA SOTA para detectar texto generado por LLM
Investigadores de UC Berkeley presentan Ghostbuster un método de IA de última generación para detectar texto generado por LLM
ChatGPT ha revolucionado la capacidad de producir fácilmente una amplia gama de texto fluido sobre una amplia gama de temas. Pero ¿qué tan buenos son realmente? Los modelos de lenguaje son propensos a errores factuales y alucinaciones. Esto permite a los lectores saber si se han utilizado tales herramientas para redactar artículos de noticias u otro texto informativo al decidir si confiar o no en una fuente. El avance en estos modelos también ha planteado preocupaciones con respecto a la autenticidad y originalidad del texto. Muchas instituciones educativas también han restringido el uso de ChatGPT debido a que el contenido es fácil de producir.
Los LLM, como ChatGPT, generan respuestas basadas en patrones e información en la gran cantidad de texto en la que fueron entrenados. No reproduce respuestas de manera literal, sino que genera contenido nuevo al predecir y comprender la continuación más adecuada para una entrada dada. Sin embargo, las reacciones pueden basarse y sintetizar información de sus datos de entrenamiento, lo que puede dar lugar a similitudes con contenido existente. Es importante tener en cuenta que los LLM tienen como objetivo la originalidad y la precisión; no son infalibles. Los usuarios deben ejercer discreción y no depender únicamente del contenido generado por IA para la toma de decisiones críticas o situaciones que requieran asesoramiento experto.
Existen muchos marcos de detección, como DetectGPT y GPTZero, para detectar si un LLM ha generado contenido. Sin embargo, el rendimiento de estos marcos falla en los conjuntos de datos que originalmente no fueron evaluados. Investigadores de la Universidad de California presentan Ghostbusters. Es un método de detección basado en búsqueda estructurada y clasificación lineal.
- Investigadores de Google DeepMind y YouTube anuncian Lyria un modelo avanzado de generación de música AI
- Cómo crear mapas hexagonales con Matplotlib
- Construir un Equipo Estratégico de AI Ahora es Fácil con AutoGen
Ghostbuster utiliza un proceso de entrenamiento de tres etapas llamado cálculo de probabilidades, selección de características y entrenamiento del clasificador. En primer lugar, convierte cada documento en una serie de vectores mediante el cálculo de probabilidades por token bajo una serie de modelos de lenguaje. Luego, selecciona características mediante la ejecución de un procedimiento de búsqueda estructurada en un espacio de funciones vectoriales y escalares que combinan estas probabilidades mediante la definición de un conjunto de operaciones que combinan estas características y realizan la selección avanzada de características. Por último, entrena un clasificador sencillo con las mejores características basadas en probabilidades y algunas características adicionales seleccionadas manualmente.
Los clasificadores de Ghostbuster están entrenados en combinaciones de características basadas en probabilidades elegidas mediante búsqueda estructurada y siete características adicionales basadas en la longitud de las palabras y las probabilidades de los tokens más grandes. Estas otras características tienen como objetivo incorporar heurísticas cualitativas observadas sobre el texto generado por IA.
Los logros de rendimiento de Ghostbuster en comparación con modelos anteriores son sólidos en cuanto a la similitud de los conjuntos de datos de entrenamiento y prueba. Ghostbuster logró un puntaje F1 de 97.0 promediado en todas las condiciones y superó a DetectGPT en 39.6 F1 y a GPTZero en 7.5 F1. Ghostbuster superó la línea de base RoBERTa en todos los dominios excepto en la escritura creativa fuera de dominio, y RoBERTa tuvo un rendimiento mucho peor fuera de dominio. El puntaje F1 es una métrica comúnmente utilizada para evaluar el rendimiento de un modelo de clasificación. Es una medida que combina tanto la precisión como la recuperación en un solo valor y es particularmente útil cuando se trata con conjuntos de datos desequilibrados.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Investigadores de IA de KAIST presentan KTRL+F una tarea de búsqueda en documentos aumentada con conocimiento que requiere la identificación en tiempo real de objetivos semánticos dentro de un documento.
- Mis estadísticas de vida Seguí mis hábitos durante un año y esto es lo que aprendí
- Entendiendo el mantenimiento predictivo Datos de ondas Ingeniería de características (Parte 1)
- Creando un GPT Climático Utilizando la API de Energía de la NASA
- Desmitificar el relleno de datos
- Consultas de lenguaje natural potenciadas por IA para descubrimiento de conocimiento
- Los 5 pilares de las pruebas confiables de LLM