Guía de Ingeniería 101 Zero, One y Prompting de Pocas Muestras

Guía de Ingeniería 101 Zero, One y Prompting de Pocas Muestras' can be condensed to 'Guía de Ingeniería 101 Zero, One y Prompting'.

Una introducción a una estrategia básica de ingeniería de prompt

Imagen de Alexandra_Koch de Pixabay

Introducción

A pesar de sus capacidades aparentemente sobrenaturales, los LLM son en última instancia modelos predictivos que simplemente predicen la siguiente palabra en la secuencia de palabras basándose en el contexto proporcionado.

Como tal, su rendimiento no solo depende de los vastos volúmenes de datos con los que se entrenan, sino que también depende en gran medida del contexto proporcionado a través de las entradas de los usuarios.

Los usuarios frecuentes de chatbots impulsados por LLM son conscientes de la importancia del contexto. Sin un contexto suficiente, los chatbots, ya sean servicios de acceso público (por ejemplo, ChatGPT) o productos LLM personalizados, tendrán dificultades para llevar a cabo instrucciones más complejas.

Aquí, nos adentramos en una de las estrategias más básicas utilizadas para guiar a los LLM para responder correctamente a los prompts: proporcionar contexto dentro de los prompts de usuario. Esto se lleva a cabo a menudo con 3 métodos diferentes: zero-shot prompting, one-shot prompting y few-shot prompting.

Zero-Shot Prompting

Si has interactuado antes con un chatbot impulsado por LLM, es probable que ya hayas utilizado el zero-shot prompting sin darte cuenta. El zero-shot prompting implica depender únicamente de la información pre-entrenada de un LLM para responder a un prompt de usuario dado.

Por ejemplo, supongamos que utilizamos ChatGPT como un clasificador de sentimientos. Una entrada con zero-shot prompting se vería así:

Prompt de Usuario: “Determina el sentimiento de esta oración. Oración: ‘Esta pelota de baloncesto tiene mucho peso’.”

ChatGPT: “El sentimiento de la oración ‘Esta pelota de baloncesto tiene mucho peso’ es neutral. No transmite un sentimiento positivo o negativo, sino que proporciona información factual sobre el peso de la pelota de baloncesto.”

Cuando se proporciona la consulta, el LLM, sin ningún contexto adicional, evalúa esta oración como neutral.

Aunque este método generalmente puede dar respuestas satisfactorias, puede resultar insuficiente cuando la complejidad de la pregunta es alta o cuando los criterios para la respuesta difieren de la norma.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Aprendizaje Automático

La carrera para evitar el peor escenario para el aprendizaje automático

Las compañías de inteligencia artificial tienen ventaja en bloquear la creación y distribución de material de abuso s...

Inteligencia Artificial

Aplicación de Smartphone aumenta la seguridad en la cirugía de hígado

Un equipo internacional de investigadores desarrolló una aplicación para smartphones que proporciona un puntaje de ri...

Aprendizaje Automático

3 preguntas Jacob Andreas sobre modelos de lenguaje grandes

El científico de CSAIL describe la investigación de procesamiento de lenguaje natural a través de modelos avanzados d...

Inteligencia Artificial

Investigadores de la Universidad de Zurich desarrollan SwissBERT un modelo de lenguaje multilingüe para los cuatro idiomas nacionales de Suiza

El famoso modelo BERT ha sido recientemente uno de los principales modelos de lenguaje para el procesamiento del leng...

Inteligencia Artificial

Por qué Bankrate renunció a los artículos generados por IA

En enero, Bankrate y su sitio hermano, CNET, causaron sensación al publicar abiertamente cientos de artículos generad...