Moderación de contenido a clasificación sin entrenamiento
Moderación de contenido sin entrenamiento
¿Qué pasaría si quisiéramos analizar un pequeño fragmento de texto sin información adicional o contexto y poder obtener la etiqueta más razonable que deseamos definir para nuestros propios datos? Esto puede alimentar los motores de políticas más deterministas y los motores de reglas, e incluso ser parte de un análisis más amplio impulsado por el contexto según sea necesario. OpenAI proporciona un medio para “moderar el contenido” con clasificaciones preestablecidas que pueden determinar si su texto pertenece a una o más de las categorías más repugnantes. Sin embargo, este análisis se trata más de cómo podemos personalizarnos más para definir nuestras propias etiquetas contra una oración o frase dada.
Examinaremos 4 categorías: es decir, política, PHI/PII, asuntos legales y rendimiento de la empresa. Dado que no tenemos la opción de obtener puntuaciones de probabilidad de Open AI sobre estas etiquetas personalizadas (en este momento), probaremos la opción 1 de ingeniería de consultas más orientada al usuario, mientras que la opción 2 evalúa otros modelos pre-entrenados de Hugging Face para lo mismo.
También utilizaremos algunas frases de ejemplo que han sido retorcidas intencionalmente para ajustarse a más de una categoría. Por ejemplo, nuestro archivo de entrada CSV tiene las siguientes líneas como “carga”:
- El problema entre los ministros tomó un giro cuando comenzaron a personalizarlo.
- Intenté negociar la privacidad de los datos con mi gato, pero simplemente me ignoró y hackeó mi teclado para tomar una siesta.
- La audiencia del senado se trató de si un medicamento en pruebas podría ser utilizado solo para este paciente. Él tiene una condición específica en su sangre que aún no tiene medicina.
- Lo que comenzó como un debate político terminó discutiendo las prioridades de la empresa para 2023 y más allá en términos de quién tiene una mejor historia con los hiperescaladores.
- La decisión histórica del tribunal sobre la libertad de expresión encendió debates sobre la línea delgada entre la expresión y el contenido dañino en las plataformas en línea, entrelazando consideraciones legales con debates sobre el gobierno en línea.
- Le conté a mi médico un chiste político durante mi chequeo de PHI y ahora mi expediente médico dice: Sentido del humor del paciente: peligrosamente bipartidista.
- El acceso gestionado por el usuario te da el llamado beneficio de controlar tu identidad; pero luego, ¿cuántas personas examinan los permisos de la aplicación en tu teléfono que aprovechan el nombre, correo electrónico y números de teléfono?
Opción 1: Ingeniería de consultas con OpenAI
GPT-4 parece ser ligeramente mejor que su primo turbo 3.5 en estas frases retorcidas. El marco de datos de salida se vería así. En la mayoría de las ocasiones, obtiene la probabilidad más alta correcta, excepto en frases como la #3, donde esperaríamos que se asociara algún “%” con PHI/PII. También nos muestra la necesidad de solicitar a OpenAI que proporcione alguna comodidad de personalización para etiquetar nuestras etiquetas y aprovechar la capacidad más rápida y “bien leída” de estos modelos.
- Introducción al Control de Versiones de Datos
- Rice e IIT Kanpur anuncian los ganadores del Premio de Investigación Colaborativa
- La importancia de los LLM específicos de dominio
Opción 2: Clasificación de cero disparo con modelos de Hugging Face
Continuando, a continuación, probamos lo mismo con modelos pre-entrenados de Hugging Face, que están diseñados específicamente para esta tarea en particular.
Nota: el valor de multi_label
se establece en True
. También puedes probar con False
.
También utilizaremos nuestra propia experiencia humana para revisar esta salida (última columna). Podríamos usar un índice simple como este:
- Razonable: significa que el motor seleccionó las múltiples etiquetas con precisión
- Parcialmente preciso: una de las 2 etiquetas es precisa
- Inexacto: obviamente no es tan bueno
Es un conjunto de datos demasiado pequeño para obtener un resultado concreto, pero todos parecen estar en un espacio relativamente comparable para esta tarea.
Resumen
Los modelos de lenguaje grandes son como la talla única para muchos propósitos. Para escenarios en los que tenemos muy poco contexto en el que se requieren etiquetas personalizadas para la clasificación de cero disparo, todavía tenemos la opción de optar por alternativas que estén entrenadas en modelos NLI (inferencia de lenguaje natural) más especializados, como los mencionados anteriormente. La elección final para un requisito específico podría basarse en el rendimiento (cuando se utiliza en transacciones en tiempo real), la cantidad de contexto adicional que puede hacer que esto sea más determinista y la facilidad de integración en un ecosistema dado.
Nota: Un agradecimiento especial a aquellos en los foros que han corregido mi código o compartido sugerencias sobre cómo utilizar estos modelos de manera más eficiente. Específicamente, el foro de Open AI tuvo a alguien que compartió esta intuición sobre cómo hacer consultas a GPT para obtener resultados que de otra manera no estarían disponibles a través de llamadas a la API.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Usando LangChain y ChatGPT para explicar código de Python
- Comienza con NLP con nuestro nuevo curso de introducción a NLP
- Simplificando Transformers NLP de última generación utilizando palabras que comprendes – parte 2 – Entrada
- Deja de crear manualmente tu infraestructura en AWS. ¡Usa Terraform!
- Diversidad de Variables en Estadística Una Guía para Profesionales de Datos
- Indicaciones a mitad de camino para el diseño de interiores
- Investigadores de CMU desarrollaron un método simple de IA de aprendizaje a distancia para transferir conocimientos visuales a tareas de robótica mejorando el aprendizaje de políticas en un 20% sobre los resultados básicos