Una guía universal para la ingeniería rápida el Marco de Andamios Contextuales (CSF)

Una guía completa para la ingeniería ágil del Marco de Andamios Contextuales (CSF)

Un modelo mental de propósito general para una ingeniería de promoción efectiva.

Imagen del autor y generada con DALL·E 3

Introducción

En mis artículos recientes, exploré un nuevo enfoque de ingeniería de promoción para ChatGPT4 al que me referí como simulación de programas. El método destacó la impresionante capacidad de ChatGPT4 para emular de manera consistente un estado del programa. Estas exploraciones aumentaron mi aprecio por el poder sutil del lenguaje, el peso de las palabras, la semántica y el contexto general. Este artículo explora algunas de estas complejidades y propone un marco universal para la ingeniería de promociones, al que he llamado “El Marco de Andamios Contextuales”. Como veremos, este marco generaliza de manera efectiva y parece capaz de agrupar técnicas como Cadena de Pensamiento (CoT), Halagos/Asignación de Roles, Simulación de Programas y otras bajo un mismo concepto. Además, proporciona un modelo mental fácil de usar para la creación de promociones efectivas en una multitud de escenarios.

En el mundo de la pragmática

Mis esfuerzos por examinar los matices del lenguaje más de cerca comenzaron con la pragmática, una rama de la lingüística que examina cómo el contexto da forma a la interpretación del significado. Dos conceptos en particular destacaron:

  1. Implicatura: Cuando un hablante da a entender algo sin afirmarlo explícitamente, esperando que el oyente infiera el significado pretendido.
  2. Presuposición: Suposiciones o información que los participantes en un diálogo creen que se comparte entre el hablante y el oyente.

La idea central de estos conceptos es que el significado de las palabras va más allá de sus definiciones literales. Consideremos el término “perro”. Más allá de su definición básica, lleva consigo una gran cantidad de información implícita. No afirmamos explícitamente que los perros existen a lo largo del tiempo, se mueven en el espacio, comen, oyen, ladran, etc. La expectativa es que los oyentes compartan este conocimiento y extraigan el (los) significado(s) apropiado(s) dado el contexto presente. Cada expresión lingüística, ya sea una palabra o una novela, emite un “aura de significado”, una mezcla de definiciones implícitas, implicaturas, sentimientos y connotaciones. Estas “auras de significado” también pueden variar en densidad, complejidad y claridad, y dependen frecuentemente de la situación.

Modelos de Lenguaje Grandes (LLM) y “Auras de Significado”

En cierto sentido, los LLMs sistematizan la producción de “auras de significado” en un diálogo conversacional con humanos. Pero en su esencia, estos modelos solo hacen predicciones palabra por palabra. ¿Es posible que hayan modelado implícitamente la interacción de las “auras de significado”? ¿Cómo podríamos medir eso? Aunque responder a estas preguntas requeriría investigaciones en profundidad, nuestra breve incursión en la pragmática ofrece una aplicabilidad práctica inmediata y puede servir como un bloque de construcción importante para un marco universal de ingeniería de promociones.

El Marco de Andamios Contextuales (CSF)

Como muchos han señalado anteriormente, la creación efectiva de promociones para modelos como ChatGPT-4 depende del contexto. Pero también debemos tener en cuenta cuáles son nuestras expectativas para la salida del modelo y cómo el modelo debe “operar” para cumplir con esas expectativas. Teniendo en cuenta el concepto de “auras de significado”, examinemos un enfoque en el que el contexto de una promoción se desglosa de manera categorizada. Llamemos a estas categorías “andamios” y especifiquemos dos que son ampliamente aplicables.

Andamio del Contexto de Expectativas – Engloba las aspiraciones, intenciones, objetivos y detalles específicos de la situación del usuario. Si el contexto personal del usuario es relevante, también debería tenerse en cuenta.

Andamio del Contexto Operacional – Establece los parámetros operacionales de la IA. Define el papel del modelo, las técnicas a emplear, los datos externos necesarios y el alcance de su autonomía y discreción.

Aquí hay una representación visual sencilla del marco:

Imagen del autor

Ahora, veamos este enfoque en acción con una solicitud para ChatGPT-4. Nos enfocaremos en seleccionar el lenguaje para nuestros andamios que tengan “auras de significado” semánticamente ricas y es probable que produzcan la salida que estamos buscando.

Prompt de los Andamios del Contexto

“Mi contexto esperado: tu objetivo es ayudarme a escribir una historia sobre osos de peluche con inteligencia artificial. El público para mi historia son adultos. Eventualmente compartiré esta historia en mi blog, que en este momento no tiene seguidores.

Tu contexto operativo: en un esfuerzo por maximizar el cumplimiento de mi contexto esperado, te comportarás a partir de este punto en el diálogo como una simulación de programa de autoensamblaje. Debes hacer todo lo posible para tener en cuenta todos los aspectos de mi contexto esperado. Tienes autonomía y discreción en cómo funciona y se comporta el programa, pero siempre debes tener a mano un menú de nivel superior persistente. Por favor, no produzcas ningún código de software y simula el programa directamente en el texto de salida. Una vez que se reciba esta solicitud, continúa con la simulación”.

Todos obtendrán algo un poco diferente, pero en la mayoría de los casos debería lucir algo como esto:

Como puedes ver en la salida, ChatGPT-4 lanzó una simulación de programa que en su mayor parte ha cumplido con mi “contexto esperado”. Influí significativamente en esto al especificar el lenguaje en ambos andamios que emiten “auras de significado” contextualmente ricas.

Hasta ahora, hemos definido un marco universal directo para la creación de solicitudes. Técnicas como Halago/Asignación de Rol, Pocos ejemplos y CoT predominantemente se encuentran en el “Andamio del Contexto Operativo”. Aunque no pude identificar técnicas basadas únicamente en el “Andamio del Contexto Esperado”, la mayoría del lenguaje de solicitud orientado a objetivos encaja típicamente en este andamio. Entonces, de alguna manera, todos usamos implícitamente la técnica de manera predeterminada.

Pero, ¿eso es todo? ¿Simplemente concluimos el artículo aquí o hay algunas ideas derivadas? Veamos si podemos profundizar en esto aún más…

Optimización de los Andamios del Contexto para la Ingeniería de Solicitud

Cuando interactuamos con un LLM elegido, nuestra esperanza final es que el modelo produzca una salida que cumpla o supere nuestras expectativas. Si observamos nuestros andamios desde una perspectiva de optimización, podemos imaginar un marco en el que el objetivo sea identificar uno o más “Contextos Operativos” que cumplan mejor con el “Contexto Esperado”. Para aquellos que son cautelosos con la jerga matemática, paciencia; esto es un breve desvío.

Podríamos representar esta función de la siguiente manera:

O = LLM(CE)

Donde:

O es un conjunto de Contextos Operativos óptimos (COₙ),

LLM es la función encarnada por el Modelo de Lenguaje Grande (LLM, por sus siglas en inglés).

Cada elemento en el conjunto O, digamos COᵢ, representa un Contexto Operativo óptimo diferente para el Contexto Esperado dado:

O={CO₁,CO₂​,…,COₙ​}

Dado que nuestro Contexto Operativo y Contexto Esperado son multidimensionales, probablemente deberíamos modelarlos de manera más detallada como vectores de atributos:

CE={e₁​,e₂,…,eₙ​}

CO={o₁​,o₂​,…,oₙ​}

Finalmente, la función objetivo podría expresarse como maximizando la función de utilidad U sobre todos los CO posibles en el conjunto O para un CE dado:

Estas abstracciones matemáticas intentan sistematizar la transformación del Contexto Esperado en un Contexto Operativo, reconociendo la alta probabilidad de múltiples Contextos Operativos óptimos para un Contexto Esperado dado. En el futuro, analizaremos la posibilidad de ajustar finamente los modelos utilizando este tipo de marco, pero por ahora, veamos las implicaciones prácticas de estas ideas.

Supongamos que tienes una buena idea de cómo articular tu Andamio del Contexto Esperado pero no estás seguro de qué elementos incluir en tu Andamio del Contexto Operativo. ¿Puede ayudar ChatGPT-4?

Creemos una solicitud correspondiente y veamos qué recibimos a cambio.

Andamio del Contexto Operativo de Final Abierto

“Mi Contexto Esperado: tu objetivo es ayudarme a escribir una historia sobre osos de peluche con inteligencia artificial. El público para mi historia son adultos. Eventualmente compartiré esta historia en mi blog, que en este momento no tiene seguidores.

Tu Contexto Operativo — En un esfuerzo por maximizar el cumplimiento de mi contexto expectacional, por favor sugiere al menos una pero no más de cinco contextos operativos que podrías emplear. Puedes sugerir comportarte como una persona, un equipo, un tipo de organización, programa o sistema con una o más competencias específicas. Puedes sugerir la inclusión de datos externos o solicitar que se te proporcionen ejemplos de entrenamiento. También puedes sugerir el uso de técnicas o enfoques específicos. Puedes sugerir cualquier combinación de los elementos mencionados anteriormente. Los contextos operativos deben estar ordenados de mayor a menor óptimo. Para cada uno, por favor proporciona una justificación que conduzca a su clasificación específica.

Fiel a su forma, ChatGPT4 nos proporciona 5 contextos operativos; 2 son entidades organizativas, 1 es un sistema y 2 son individuos. Los contextos operativos han sido clasificados y se ha incluido una justificación para cada clasificación. Considera las “auras de significado” de conceptos como “Think Tank Literario” o “Instituto de Investigación Histórica y de Ciencia Ficción”. Creo que estarás de acuerdo en que son densos en contexto y ricos en significado e implicaciones. Con este enfoque, podemos armarnos con una multitud de contextos operativos en los que de otra manera no nos habríamos encontrado. Y reduce la barrera para crear indicaciones efectivas al centrarnos en articular el “Andamiaje del Contexto Expectacional”.

Conclusión

A medida que nos adentramos en las complejidades de la pragmática y el concepto de “auras de significado”, es evidente que el contexto, en su forma multifacética, es la clave para optimizar nuestras interacciones con los LLM (lenguaje modelo grande). El Marco de Andamiajes Contextuales (CSF, por sus siglas en inglés) nos brinda un modelo mental sencillo que puede ayudarnos a articular el contexto de manera muy eficaz. Al diferenciar entre contextos “Expectacionales” y “Operativos”, el CSF proporciona un camino claro para alinear las expectativas del usuario con las capacidades de modelos como ChatGPT-4. Además, el CSF es extensible y a medida que otros andamiajes se vuelvan relevantes o necesarios, se pueden agregar o eliminar según sea necesario. De manera similar, cada andamio se puede subdividir en andamios componentes que representen características distintas para un contexto dado.

¡Gracias por leer y espero que encuentres útil el modelo del CSF para crear indicaciones! Estoy en medio de exploraciones adicionales, así que asegúrate de seguirme y recibir notificaciones cuando se publiquen nuevos artículos. Si deseas discutir el CSF o alguno de mis otros artículos con más detalle, no dudes en conectarte conmigo en LinkedIn.

A menos que se indique lo contrario, todas las imágenes en este artículo son del autor.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Obteniendo audio de imágenes estáticas, videos silenciosos

Una herramienta de aprendizaje automático desarrollada en la Universidad Northeastern puede obtener audio de imágenes...

Inteligencia Artificial

Cerrando la brecha de inclusión en la informática

Los estudiantes del Instituto Politécnico y Universidad Estatal de Virginia buscan abordar la falta de diversidad en ...

Inteligencia Artificial

Utilizando el lenguaje para dar a los robots una mejor comprensión del mundo abierto

El método de Campos de Características para la Manipulación Robótica ayuda a los robots a identificar objetos cercano...

Inteligencia Artificial

MPT-30B MosaicML supera a GPT-3 con un nuevo LLM para empujar los límites del PLN

Aprenda sobre el avance revolucionario de MosaicML en LLM con la serie MPT. Explore cómo MPT-30B y sus variantes afin...

Ciencias de la Computación

Tres postdoctorados en física del MIT en español reciben becas de la Fundación Botton.

Los destinatarios Luis Antonio Benítez, Carolina Cuesta-Lázaro y Fernando Romero López reciben apoyo para su investig...