Investigadores de UC Berkeley introducen Ghostbuster un método de IA SOTA para detectar texto generado por LLM

Investigadores de UC Berkeley presentan Ghostbuster un método de IA de última generación para detectar texto generado por LLM

ChatGPT ha revolucionado la capacidad de producir fácilmente una amplia gama de texto fluido sobre una amplia gama de temas. Pero ¿qué tan buenos son realmente? Los modelos de lenguaje son propensos a errores factuales y alucinaciones. Esto permite a los lectores saber si se han utilizado tales herramientas para redactar artículos de noticias u otro texto informativo al decidir si confiar o no en una fuente. El avance en estos modelos también ha planteado preocupaciones con respecto a la autenticidad y originalidad del texto. Muchas instituciones educativas también han restringido el uso de ChatGPT debido a que el contenido es fácil de producir.

Los LLM, como ChatGPT, generan respuestas basadas en patrones e información en la gran cantidad de texto en la que fueron entrenados. No reproduce respuestas de manera literal, sino que genera contenido nuevo al predecir y comprender la continuación más adecuada para una entrada dada. Sin embargo, las reacciones pueden basarse y sintetizar información de sus datos de entrenamiento, lo que puede dar lugar a similitudes con contenido existente. Es importante tener en cuenta que los LLM tienen como objetivo la originalidad y la precisión; no son infalibles. Los usuarios deben ejercer discreción y no depender únicamente del contenido generado por IA para la toma de decisiones críticas o situaciones que requieran asesoramiento experto.

Existen muchos marcos de detección, como DetectGPT y GPTZero, para detectar si un LLM ha generado contenido. Sin embargo, el rendimiento de estos marcos falla en los conjuntos de datos que originalmente no fueron evaluados. Investigadores de la Universidad de California presentan Ghostbusters. Es un método de detección basado en búsqueda estructurada y clasificación lineal.

Ghostbuster utiliza un proceso de entrenamiento de tres etapas llamado cálculo de probabilidades, selección de características y entrenamiento del clasificador. En primer lugar, convierte cada documento en una serie de vectores mediante el cálculo de probabilidades por token bajo una serie de modelos de lenguaje. Luego, selecciona características mediante la ejecución de un procedimiento de búsqueda estructurada en un espacio de funciones vectoriales y escalares que combinan estas probabilidades mediante la definición de un conjunto de operaciones que combinan estas características y realizan la selección avanzada de características. Por último, entrena un clasificador sencillo con las mejores características basadas en probabilidades y algunas características adicionales seleccionadas manualmente.

Los clasificadores de Ghostbuster están entrenados en combinaciones de características basadas en probabilidades elegidas mediante búsqueda estructurada y siete características adicionales basadas en la longitud de las palabras y las probabilidades de los tokens más grandes. Estas otras características tienen como objetivo incorporar heurísticas cualitativas observadas sobre el texto generado por IA.

Los logros de rendimiento de Ghostbuster en comparación con modelos anteriores son sólidos en cuanto a la similitud de los conjuntos de datos de entrenamiento y prueba. Ghostbuster logró un puntaje F1 de 97.0 promediado en todas las condiciones y superó a DetectGPT en 39.6 F1 y a GPTZero en 7.5 F1. Ghostbuster superó la línea de base RoBERTa en todos los dominios excepto en la escritura creativa fuera de dominio, y RoBERTa tuvo un rendimiento mucho peor fuera de dominio. El puntaje F1 es una métrica comúnmente utilizada para evaluar el rendimiento de un modelo de clasificación. Es una medida que combina tanto la precisión como la recuperación en un solo valor y es particularmente útil cuando se trata con conjuntos de datos desequilibrados.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Generando más perspectivas de calidad por mes

En El mito del emprendedor Por qué la mayoría de los pequeños negocios no funcionan y qué hacer al respecto, Michael ...

Inteligencia Artificial

EE. UU. y la UE completan el tan esperado acuerdo sobre el intercambio de datos

El acuerdo pone fin a la incertidumbre legal para Meta, Google y decenas de empresas, al menos por ahora.

Inteligencia Artificial

ULTRA Modelos de base para el razonamiento del gráfico de conocimiento

Entrenar un solo modelo genérico para resolver conjuntos de datos arbitrarios siempre ha sido un sueño para los inves...

Ciencia de Datos

Mejorando la inferencia de PyTorch en CPU desde la cuantificación posterior al entrenamiento hasta el multihilo.

Acelere el tiempo de inferencia en CPU con la selección de modelos, la cuantización posterior al entrenamiento con ON...

Inteligencia Artificial

La IA multimodal conecta los puntos digitales

Al unir múltiples componentes y flujos de datos, la IA multimodal ofrece la promesa de sistemas más inteligentes y si...