Cómo mejorar la salida del modelo de un GenAI

Cómo optimizar el desfile de un modelo de GenAI

La inteligencia artificial generativa, que se remonta a la década de 1950, ha evolucionado desde sistemas basados en reglas hasta modelos que utilizan algoritmos de aprendizaje profundo. En la última década, los avances en hardware y software han permitido la generación de contenido en tiempo real y de alta calidad mediante modelos de inteligencia artificial generativa a gran escala.

En este artículo, te contaré cómo puedes integrar con éxito la inteligencia artificial generativa en los procesos de producción a gran escala dentro del entorno empresarial. Así, sabrás cómo prepararte para implementar la inteligencia artificial generativa a nivel empresarial. Por ejemplo, para el servicio al cliente, las comunicaciones de marketing, la gestión financiera u otras aplicaciones empresariales de Inteligencia Artificial Generativa (GenAI, por sus siglas en inglés).

Rol de ML en GenAI

En el contexto de la inteligencia artificial generativa, los algoritmos de aprendizaje automático (ML, por sus siglas en inglés) estructuran una serie de tareas. Estas secuencias de tareas son experimentos continuos que requieren que preparemos a nuestros equipos y empresas para ciclos recurrentes.

Por ejemplo, estás instruyendo a un modelo de lenguaje para que proporcione respuestas. En este caso, debes establecer un ciclo, evaluar los resultados e iterar según sea necesario. Aquí, utilizarás enfoques de resolución de problemas diferentes o “patrones” que avanzan desde estrategias más simples hasta estrategias más avanzadas para gestionar las tareas.

Este diagrama incluye diferentes ciclos e iteraciones. Puedes consultarlo y adaptarlo a los requisitos específicos de tu empresa.

Desglosemos un ciclo simple.

Nivel 1. Estímulo, aprendizaje en contexto y encadenamiento

Paso 1

Selecciona un modelo, proporciona un estímulo, obtén una respuesta, evalúa la respuesta y vuelve a proporcionar un estímulo si es necesario hasta obtener el resultado deseado.

El aprendizaje en contexto es un enfoque de ingeniería de estímulos en el que los modelos de lenguaje aprenden tareas a partir de algunos ejemplos de lenguaje natural y tratan de realizarlas. El aprendizaje en contexto es un nuevo enfoque en el procesamiento del lenguaje natural (NLP, por sus siglas en inglés) con objetivos similares al aprendizaje con pocos ejemplos, que permite que los modelos comprendan el contexto sin ajustes extensos.

Paso 2

Además del patrón de estímulo → FM → Adaptación → Completación, a menudo necesitamos una Cadena de Tareas que involucra la extracción de datos, la IA predictiva y los modelos fundamentales de IA generativa. Este patrón sigue el siguiente flujo:

Cadena: Extraer datos/análisis → Ejecutar modelo de IA predictiva → Enviar resultado a LLM → Generar salida

Por ejemplo, en un escenario de marketing, puedes comenzar usando SQL con BigQuery para dirigirte a segmentos de clientes específicos. Luego, se utiliza un algoritmo de clasificación de IA predictiva para identificar a los mejores clientes y enviar estos datos al LLM para generar correos electrónicos personalizados.

Nivel 2. Mejorando el Nivel Anterior

Si aún no estás satisfecho con las respuestas del modelo, puedes intentar ajustar finamente el modelo fundamental. Puede ser específico para un dominio, para una industria o creado para formatos de salida específicos. El ajuste fino ajusta todos los parámetros en un gran conjunto de datos de ejemplos etiquetados, lo cual puede ser intensivo computacionalmente, pero ofrece un rendimiento óptimo.

El ajuste fino eficiente en parámetros (PEFT, por sus siglas en inglés) puede ser un enfoque computacionalmente más eficiente en comparación con el ajuste fino tradicional. El PEFT ajusta finamente solo un subconjunto de los parámetros del modelo, ya sea a través de sintonización de adaptadores o adaptación de rango bajo de modelos de lenguaje extensos.

  • Sintonización de adaptadores agrega una capa específica de tareas entrenada en un pequeño conjunto de ejemplos etiquetados, lo que permite que el modelo aprenda características específicas de la tarea sin ajustar todos los parámetros por completo.
  • LoRA aproxima los parámetros del modelo con una matriz de rango bajo utilizando factorización de matrices, ajustándola eficientemente en un pequeño conjunto de datos de ejemplos etiquetados para aprender características específicas de la tarea.

Nivel 3. Mejorando el Contexto de la Entrada

Paso 1

Para implementar la búsqueda semántica de documentos relacionados, debes dividirlos en oraciones o párrafos. Luego, puedes transformarlos en vectores utilizando una herramienta de incrustación vectorial. Este proceso utiliza una búsqueda del vecino más cercano aproximada (ANN, por sus siglas en inglés), mejorando las respuestas del modelo al reducir las posibilidades de alucinación y proporcionar un contexto relevante.

Es conocido como Generación con Recuperación Mejorada (RAG).

  1. Comience con una consulta o declaración del usuario.
  2. Mejore la indicación agregando contexto de la herramienta de incrustación vectorial.
  3. Envíe la indicación aumentada al LLM.

Paso 2

Puede mejorar la precisión del modelo dejándole mostrar de dónde obtuvo sus respuestas. Con RAG, esto sucede antes de mostrar la respuesta. Después de generar la respuesta, encuentra una fuente y la comparte. Muchos proveedores, como Google Cloud AI, ofrecen formas de hacer esto.

Paso 3

FLARE, un subproducto de RAG, implica recuperación proactiva. Predice lo que vendrá a continuación y busca información por adelantado, especialmente cuando no está seguro de las respuestas.

Últimos pensamientos

Dominar las etapas de un proyecto de inteligencia artificial generativa y adaptar las habilidades necesarias permite a las empresas utilizar la IA de manera efectiva. Es un viaje desafiante que requiere planificación, recursos y compromiso ético, pero el resultado es una potente herramienta de IA que puede transformar las operaciones empresariales. ¡Espero que haya encontrado útil esta información!

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Mejorando los Modelos de Lenguaje con Indicaciones Analógicas para Mejorar el Razonamiento

En los últimos años, los modelos de lenguaje han demostrado una notable habilidad para entender y generar texto simil...

Inteligencia Artificial

Encontrar respuestas (sobre la mejor manera de encontrar respuestas)

Los científicos de la computación en la Universidad del Sur de California consideraron cuáles son las mejores represe...

Inteligencia Artificial

Los exámenes no supervisados en línea proporcionan evaluaciones válidas

Jason Chan y Dahwi Ahn de la Universidad de Iowa State encontraron que las calificaciones en línea y no supervisadas ...

Inteligencia Artificial

Principal Financial Group utiliza la solución de análisis posterior a la llamada de AWS para extraer información sobre los clientes omnicanal

Una empresa de servicios financieros establecida con más de 140 años en el negocio, Principal es líder mundial en ges...

Inteligencia Artificial

La Era de Gen AI Un Nuevo Comienzo

Introducción En el mundo de la tecnología en constante evolución, nos encontramos en el umbral de una nueva era, una ...

Inteligencia Artificial

Esta investigación de IA de China presenta Consistent4D Un nuevo enfoque de inteligencia artificial para generar objetos dinámicos en 4D a partir de videos monocu

El campo de la visión por computadora se enfrenta a una tarea fundamental pero ardua: descifrar datos tridimensionale...