Guía de Ingeniería 101 Zero, One y Prompting de Pocas Muestras
Guía de Ingeniería 101 Zero, One y Prompting de Pocas Muestras' can be condensed to 'Guía de Ingeniería 101 Zero, One y Prompting'.
Una introducción a una estrategia básica de ingeniería de prompt
Introducción
A pesar de sus capacidades aparentemente sobrenaturales, los LLM son en última instancia modelos predictivos que simplemente predicen la siguiente palabra en la secuencia de palabras basándose en el contexto proporcionado.
Como tal, su rendimiento no solo depende de los vastos volúmenes de datos con los que se entrenan, sino que también depende en gran medida del contexto proporcionado a través de las entradas de los usuarios.
Los usuarios frecuentes de chatbots impulsados por LLM son conscientes de la importancia del contexto. Sin un contexto suficiente, los chatbots, ya sean servicios de acceso público (por ejemplo, ChatGPT) o productos LLM personalizados, tendrán dificultades para llevar a cabo instrucciones más complejas.
Aquí, nos adentramos en una de las estrategias más básicas utilizadas para guiar a los LLM para responder correctamente a los prompts: proporcionar contexto dentro de los prompts de usuario. Esto se lleva a cabo a menudo con 3 métodos diferentes: zero-shot prompting, one-shot prompting y few-shot prompting.
- ¿Qué significa cuando el aprendizaje automático comete un error?
- Diseñando ciudades resilientes en Arup utilizando las capacidades geoespaciales de Amazon SageMaker
- ¿Cómo puedes mejorar tus métricas y proceso de pronóstico sin algoritmos sofisticados?
Zero-Shot Prompting
Si has interactuado antes con un chatbot impulsado por LLM, es probable que ya hayas utilizado el zero-shot prompting sin darte cuenta. El zero-shot prompting implica depender únicamente de la información pre-entrenada de un LLM para responder a un prompt de usuario dado.
Por ejemplo, supongamos que utilizamos ChatGPT como un clasificador de sentimientos. Una entrada con zero-shot prompting se vería así:
Prompt de Usuario: “Determina el sentimiento de esta oración. Oración: ‘Esta pelota de baloncesto tiene mucho peso’.”
ChatGPT: “El sentimiento de la oración ‘Esta pelota de baloncesto tiene mucho peso’ es neutral. No transmite un sentimiento positivo o negativo, sino que proporciona información factual sobre el peso de la pelota de baloncesto.”
Cuando se proporciona la consulta, el LLM, sin ningún contexto adicional, evalúa esta oración como neutral.
Aunque este método generalmente puede dar respuestas satisfactorias, puede resultar insuficiente cuando la complejidad de la pregunta es alta o cuando los criterios para la respuesta difieren de la norma.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Depuración y Mejora de las Respuestas de ChatGPT 🧐
- Utilizando datos e inteligencia artificial para rastrear el progreso hacia los Objetivos Globales de las Naciones Unidas
- IA generativa y agentes multimodales en AWS La clave para desbloquear nuevo valor en los mercados financieros
- Fetch reduce la latencia de procesamiento de ML en un 50% utilizando Amazon SageMaker y Hugging Face
- Rocket Money x Hugging Face Escalando modelos de aprendizaje automático volátiles en producción
- Conoce al Omnívoro Diseñador Industrial combina el Arte y el OpenUSD para crear Activos 3D para el Entrenamiento de IA
- Los Juegos Asiáticos, un hito para los eSports que alimenta los sueños olímpicos