Crea un sistema de comentarios autogestionado con LangChain y OpenAI
Crea un sistema de comentarios autogestionado con LangChain y OpenAI' can be condensed to 'Crea un sistema de comentarios autogestionado con LangChain y OpenAI
Vamos a crear un sistema de respuesta de comentarios auto-moderado utilizando dos de los modelos disponibles en OpenAI encadenados con LangChain. Previniendo que nuestro sistema sea troleado.
Como descargo de responsabilidad, me gustaría señalar que este artículo es simplemente un ejemplo creado para demostrar cómo funciona la herramienta LangChain. Hay muchas formas de crear un sistema de comentarios auto-moderado. La que exploraremos en este artículo es una solución muy básica.
La idea básica es aislar el modelo que finalmente publica la respuesta de la entrada del usuario a la que está respondiendo.
En otras palabras, no permitiremos que el modelo que interpreta el texto del usuario sea la autoridad final para publicar la respuesta. De esta manera, protegemos el sistema de posibles intentos de explotación por parte del usuario.
- Por qué tus canalizaciones de datos necesitan un control de retroalimentación en bucle cerrado
- 7 Lecciones del curso de Aprendizaje Profundo de Fast.AI
- De Codificaciones a Incrustaciones
Los pasos que seguirá nuestra cadena LangChain para evitar que nuestro sistema de moderación se vuelva loco o descortés son los siguientes:
- El primer modelo lee la entrada del usuario.
- Genera una respuesta.
- Un segundo modelo analiza la respuesta.
- Si es necesario, la modifica y finalmente la publica.
Como puedes ver, el segundo modelo es responsable de decidir si la respuesta se puede publicar. Por lo tanto, evitaremos que tenga contacto directo con las entradas del usuario.
El código fuente.
El artículo se basa en un cuaderno en el que he utilizado dos modelos diferentes de OpenAI. Sin embargo, hay dos cuadernos complementarios adicionales que implementan la misma solución con modelos de Hugging Face. En uno de ellos, se utiliza el modelo EleutherAI/gpt-j-6b, y en el otro, empleé el modelo meta-llama/Llama-2–7b-chat-hf, que forma parte de la conocida familia de modelos LLAMA-2 lanzada por Meta.
Los tres cuadernos se pueden encontrar en el repositorio de GitHub del curso de Modelos de Lenguaje Amplio.
- Cuaderno Llama2–7B: https://github.com/peremartra/Large-Language-Model-Notebooks-Course/blob/main/HF_LLAMA2_LangChain_Moderation_System.ipynb
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Calibración de cámara usando OpenCV
- Crear productos de LLM es difícil Estos son los 6 desafíos clave
- Principios de Gestión de Datos para Ciencia de Datos
- QCNet Revolucionando la seguridad de los vehículos autónomos con una predicción avanzada de trayectorias
- Haciendo la vida más amigable con robots personales
- Conoce a Falcon 180B El modelo de lenguaje más grande disponible públicamente con 180 mil millones de parámetros
- Cómo crear un sistema de clasificación Elo basado en datos para juegos 2v2