El Diseño de las Cosas Cotidianas (IA)

El Diseño de los Elementos Cotidianos (IA)

Principios de UI/UX para construir excelentes herramientas de IA generativa

Fuente de la imagen: DreamStudio

El clásico de diseño de Don Norman de 1988, “El diseño de las cosas cotidianas”, estableció principios de experiencia de usuario que han influido en el diseño de hardware y software de alta calidad desde entonces. Si bien Norman se basó en ejemplos analógicos como las manijas de las puertas y los interruptores de luz, sus principios son ampliamente aplicables al software, incluidos los productos de IA generativa. Con toda la publicidad sobre la IA generativa, es fácil olvidar que los productos impulsados por los modelos más sofisticados fallarán si carecen de una buena UI/UX.

Muchas nuevas herramientas de IA han generado mucho interés, seguido de una falta de retención de usuarios (como se detalla aquí por Sequoia). La publicidad de la IA atrae a nuevos usuarios, pero luchan por entender o obtener un valor real del producto. Este es el clásico “abismo de la desilusión”, que ocurre cuando una tecnología central (modelos generativos) avanza mientras que la tecnología de apoyo (diseño UI/UX) se queda rezagada.

Esta publicación detalla cómo aplicar tres conceptos principales de UX a los productos de IA generativa: 1) affordances, 2) feedback y 3) constraints. Aplicar estos conceptos a la IA generativa nos lleva a conclusiones que exploraremos, incluyendo:

  • No se apunte a un golpe maestro
  • El feedback del usuario no es gratuito
  • Trate las interfaces de chatbot con escepticismo

Los ejemplos a continuación se extraen de herramientas de productividad laboral (y parcialmente inspirados en mis experiencias en Tome, una VoAGI impulsada por IA para dar forma y compartir ideas), pero las estrategias se aplican ampliamente, desde herramientas de desarrollo hasta redes sociales y comercio electrónico.

Tema 1: Feedback

Proporcionar un feedback rápido y claro al usuario sobre una acción solicitada es fundamental para cualquier tecnología. El feedback es especialmente importante para los sistemas de IA generativa, debido a la latencia y complejidad de sus resultados. Y el feedback funciona en ambas direcciones. Un sistema debe solicitar un feedback relevante al usuario sin ser molesto, para generar mejores resultados para ese usuario en el corto plazo y permitir mejores versiones del producto en el VoAGI o largo plazo.

Construir para la latencia

Los tiempos de respuesta de los modelos de IA generativa tienden a oscilar entre segundos de uno o dos dígitos. A primera vista, esperar diez segundos para un memo convincente, una imagen brillante o un video hermoso podría parecer no ser un problema. Sin la IA generativa, estas acciones toman horas, ¿a quién le importa si lleva 10 segundos, 1 segundo o 100 milisegundos?

Pero los usuarios no son economistas optimizando el costo de oportunidad. Han sido condicionados por herramientas no basadas en IA para esperar que el software sea tan rápido que se perciba como instantáneo. Esto lleva a varios desafíos de los usuarios con productos de IA obviamente no instantáneos:

  1. Confusión sobre si el sistema está funcionando y si es necesario volver a intentar/reiniciar.
  2. Costo percibido alto para iterar. Y dado que la mayoría de las veces el primer artefacto que genera la IA no es exactamente lo que el usuario desea, el usuario quiere iterar.
  3. Alta probabilidad de que el usuario comience a hacer varias tareas a la vez. Una vez que un usuario ha cambiado de su aplicación, no hay garantía de que vuelva a ella.

Existen buenas estrategias para mitigar los efectos de la latencia que preceden a la IA generativa. Estas incluyen animaciones de carga, barras de progreso y procesamiento en segundo plano (en el que el usuario se dirige a otra tarea y recibe una notificación cuando se completa la tarea actual). Una táctica más reciente, específica de las características de LLM, es transmitir texto palabra por palabra (o caracter por caracter) a la UI, en lugar de representar la salida completa de una vez. Dado que muchos modelos pueden generar palabras más rápido de lo que un usuario puede leer, esto puede reducir la latencia percibida casi a cero.

No apuntes a un golpe maestro

Una estrategia particularmente efectiva para mitigar la latencia es dividir los flujos de trabajo en pequeños pasos, en los que se proporciona feedback del sistema y se solicita feedback del usuario en cada paso. Esto permite que el usuario avance hacia un resultado con cada vez más confianza de que el sistema entregará exactamente lo que el usuario desea. En un flujo de trabajo iterativo bien diseñado, la latencia de los pasos iniciales es baja, y la confianza del usuario aumenta con cada paso sucesivo de que la salida final será lo que desean. Si estás bastante seguro de que obtendrás el artefacto que deseas, entonces estarás dispuesto a esperar diez segundos para que se ejecute el paso final.

Los flujos de trabajo iterativos tienen un beneficio aún más poderoso que aumentar la tolerancia a la latencia: permiten a los usuarios generar resultados que se ajusten mejor a sus expectativas. Los modelos generativos a veces pueden producir exactamente lo que el usuario desea, a partir de una simple indicación. Y pasar directamente de la entrada a la salida final “acertada” es una experiencia increíble para el usuario; es como dar en el blanco. Y al igual que acertar en un solo golpe, esto es muy raro.

El desafío no es cuán “inteligente” es el modelo, sino qué contexto e información necesita el modelo para producir la visión del usuario. Consideremos a un gerente de ventas que quiere resumir el rendimiento trimestral de su equipo. Ha visto docenas de informes de ventas trimestrales y está familiarizada con las normas de su empresa que rigen estos elementos (normas como el tono, el nivel de detalle, la longitud y el diseño visual). Si necesitara que un colega le redactara un informe así, simplemente pediría “un informe de ventas trimestral” y esperaría que el colega ya conociera estas normas.

Entonces, cuando esta gerente de ventas quiere obtener un informe así de una herramienta de IA, no le resulta obvio qué normas debe indicarle a la herramienta y qué cosas ya sabe. Aquí es donde los flujos de trabajo iterativos son particularmente útiles. Puede comenzar con algo sencillo y familiar, como solicitar “un informe de ventas trimestral”, y luego la herramienta puede ayudarla a precisar exactamente lo que tiene en mente. Zach Lloyd llama a este patrón “preguntar y ajustar” en este razonado artículo sobre diseño de IA.

Editor de esquema de Tome es un ejemplo de un paso intermedio en un flujo de trabajo de IA iterativo, situado entre una solicitud y la salida final, una presentación de varias páginas. https://tome.page

La retroalimentación del usuario no es gratuita

En muchos productos de aprendizaje automático clásicos, cada interacción del usuario genera un nuevo conjunto de datos de entrenamiento para el modelo, mejorando la próxima versión del producto. Cada clic del usuario en un resultado de búsqueda ayuda a mejorar el modelo de búsqueda. Cada correo electrónico que un usuario marca como spam ayuda a mejorar el modelo de clasificación de spam.

Sin embargo, muchos productos de IA generativos carecen de la “física” inherente en la que las interacciones del usuario conduzcan mecánicamente a la mejora del modelo. En los productos de IA donde la salida es un texto sofisticado, una imagen, etc., puede ser difícil distinguir entre una salida frustrada (donde el usuario no pudo obtener la salida que quería y abandonó) y una salida satisfecha (el usuario obtuvo lo que quería y se fue). Algunos productos solicitan comentarios voluntarios (por ejemplo, pulgares arriba/abajo), pero las tasas de finalización tienden a ser muy bajas y los comentarios mismos a menudo sufren de sesgo de selección.

Es mucho mejor diseñar un flujo de trabajo donde la siguiente acción natural del usuario indique su percepción de la salida de IA anterior. Un patrón, que se ve más comúnmente con modelos de texto, son las sugerencias en línea: si el usuario acepta la sugerencia y continúa escribiendo, eso es una señal fuerte de que la sugerencia ha sido vista positivamente. Otro patrón es instrumentar qué salida de IA se guarda, edita o comparte. Estos no están perfectamente correlacionados con la satisfacción del usuario, ya que un usuario puede compartir una imagen porque es particularmente extraña, pero son buenos indicadores cuando se utilizan en conjunto.

Tema 2: Posibilidades

Una posibilidad es una señal (normalmente visual) que sugiere cómo y cuándo utilizar una función. Las buenas posibilidades hacen que sea intuitivo para los usuarios interactuar con un producto, sin necesidad de instrucciones extensas o experiencia. Exploraremos las posibilidades para la IA generativa en tres etapas del proceso del usuario: descubrir los puntos de entrada a la IA, proporcionar la entrada correcta para la IA y utilizar la salida de la IA.

Descubriendo los puntos de entrada de la IA

Muchas herramientas de trabajo están agregando muchas características de IA, y estas características son aplicables en diferentes etapas del proceso creativo. Los puntos de entrada de alto nivel para utilizar características de IA incluyen:

  1. Ayúdame a empezar desde cero
  2. Ampliar lo que he comenzado
  3. Editar lo que he creado

Estos diferentes puntos de entrada han llevado a interfaces significativamente diferentes, incluso en esta etapa temprana de la evolución de las interfaces de IA. Para (1), han surgido interfaces de texto libre o “lienzo en blanco” como paradigmas líderes. Para (2), la generación en línea (también conocida como autocompletar) tiende a dominar las funciones de generación de texto (como Github Copilot), mientras que “muéstrame más como esto” tiende a dominar las funciones de generación de imágenes (como Midjourney). Para (3), las interfaces tienden a centrarse en resaltar, seleccionar o cargar contenido existente (como Grammarly).

El mapa mental de IA de Whimsical ayuda a los usuarios a comenzar desde cero. https://whimsical.com

Para un usuario que ha descubierto un punto de entrada de IA en una herramienta con múltiples funciones de IA, es fácil concluir que “aquí es donde vive la IA” y no descubrir las otras funciones. Los buenos productos mitigan esto presentando a los usuarios sus diversos puntos de entrada de IA en los momentos del flujo de trabajo del usuario en los que es más probable que cada punto de entrada sea útil.

Ingresar datos para la IA

La entrada central de muchos flujos de trabajo de IA generativa es la entrada de texto libre, también conocida como “problematización”. Desafortunadamente, una buena problematización es complicada, está en constante evolución e es inconsistente entre herramientas. Los buenos productos ayudan a los usuarios a crear problematizaciones con estrategias que incluyen ejemplos de problematizaciones y sugerencias.

Perplexity incluye algunos ejemplos de problematizaciones en su página de inicio, para ilustrar casos de uso que van más allá de los motores de búsqueda típicos. https://www.perplexity.ai/

Las buenas interfaces también ayudan al usuario a comprender el contexto que tiene la IA y lo que le falta. Cuando se trabaja con una IA potente, un usuario razonable puede concluir que lo que pueden ver en la aplicación, la IA también debe ser capaz de verlo y comprenderlo. Por ejemplo, si puedo ver mi conversación pasada con la IA, seguramente la IA también debe estar al tanto de ella (esto es un comportamiento que ChatGPT popularizó). ¡Pero no todas las IA funcionan así! Algunos sistemas son conscientes de las problematizaciones anteriores del usuario, algunos son conscientes de incluso más contexto que las problematizaciones pasadas, y otros solo están al tanto de la interacción actual del usuario y nada más. El usuario no debería tener que descubrir lo que el sistema sabe y lo que no a través del ensayo y error.

Utilizando la salida de la IA

Es tentador pensar que cuando un sistema ha producido una salida de IA generativa y la salida es buena, el éxito está a la mano. Pero incluso cuando la salida es buena, esto puede ser un momento confuso para el usuario.

En primer lugar, los nuevos usuarios a menudo se preguntan cómo persistir la salida. Incluso cuando la salida es buena, muchos usuarios quieren iterar de inmediato y ver si pueden pasar de bueno a excelente. Pero el temor de perder su trabajo existente puede generar vacilación y frustración.

En segundo lugar, los usuarios pueden estar confundidos acerca de cómo mejorar la salida. Suponiendo que utilizaron una función de IA de “comenzar desde cero”, ¿deben volver al principio? ¿Necesitan pasar a otro punto de entrada de IA como “extender” o “editar”? Muchos usuarios se habrán encontrado con productos como ChatGPT donde la salida no es directamente editable; si la salida es editable, es probable que los usuarios necesiten una capacidad de edición.

Tema 3: Restricciones

Las restricciones limitan la entrada y la salida para ayudar a los usuarios a trabajar más rápido y mejor. Las buenas restricciones son claras para el usuario. Si un sistema puede ayudar a un usuario a lograr un objetivo, pero solo en parte o parte del tiempo, puede ser mejor evitar ese camino por completo en lugar de proporcionar una experiencia poco confiable.

Los LLM abren vastas nuevas experiencias para el usuario (¡por eso me encanta trabajar en ellos!) y los creadores de productos deberían estar ansiosos por relajar las restricciones tradicionales del software determinístico. No obstante, independientemente de cuán inteligentes se vuelvan los LLM, siempre habrá espacio para algunas restricciones bien pensadas.

Entrada: no temas los controles

Inspirados por el éxito de ChatGPT, muchas herramientas de inteligencia artificial generativa utilizan una caja de texto libre como única o principal entrada del usuario. Sin embargo, muchos aspectos de la intención del usuario se expresan mejor a través de entradas categóricas o numéricas. Cuando se crea un documento, la mayoría de los usuarios tienen atributos en mente, como el idioma (categórico) y la longitud (valor numérico). Los usuarios pueden no mencionar estos atributos en una indicación de texto libre, pero eso no significa que no les importen. Al solicitar esta entrada a través de controles discretos y acotados (como un menú desplegable o un control deslizante), un sistema ayuda a obtener la información necesaria para ofrecer lo que el usuario tiene en mente. Además, existen principios reconocidos para ayudar a los usuarios a navegar por los controles discretos: establecer buenos valores por defecto, agrupar los controles de manera lógica y explicarlos con descripciones emergentes o etiquetas.

Cuando se trata de controles, establecer buenos valores por defecto es una parte fundamental del diseño. La gran mayoría del tiempo (muy superior al 90%), los usuarios no cambiarán los valores por defecto, incluso si se beneficiarían al hacerlo. Una oportunidad para combinar buenos valores por defecto con la variabilidad de preferencias del usuario es ajustar los valores por defecto de manera dinámica, ya sea a través de reglas codificadas o inteligencia artificial.

Salida: no todo lo que se puede generar debe serlo

Para los productos de inteligencia artificial generativa, hay muchas situaciones en las que el modelo subyacente puede producir algún contenido, pero en las que al usuario le sería preferible no recibir nada a lidiar con resultados engañosos o desconcertantes.

En la mayoría de las tareas relacionadas con el trabajo, los usuarios preferirían recibir un “no lo sé” en lugar de una respuesta potencialmente falsa, que deberían verificar o refutar. Este estudio de Harvard en la firma consultora BCG muestra cómo la inteligencia artificial puede disminuir la calidad del trabajo cuando responde preguntas más allá de su “frontera de confianza” y los usuarios, sin saber dónde se encuentra la frontera, no examinan suficientemente los resultados.

Los métodos para reducir la aparición de alucinaciones están evolucionando rápidamente (por ejemplo, generación aumentada mediante recuperación), y sospecho que dentro de unos años el problema de las alucinaciones será en su mayoría “solucionado”. Pero hoy en día, es importante considerar las restricciones en el caso de las salidas donde la veracidad es fundamental.

Las preocupaciones legales y éticas son otra razón para limitar las salidas dirigidas al usuario. El hecho de que el modelo subyacente pueda generar texto o imágenes sobre un tema no significa que sea ético hacerlo. Sin embargo, muchas veces que un sistema clasifica una solicitud del usuario como “fuera de límites”, la intención del usuario en realidad es benigna. Con un poco de ayuda, el usuario podría reformular su solicitud para evitar salirse de los límites establecidos. Por ejemplo, algunas herramientas de generación de imágenes rechazan indicaciones que incluyen la palabra “niño”. Pero si un usuario desea generar una imagen de una familia con niños, podría indicar “familia de cuatro” o “padres con hijo e hija”. La clave es que las restricciones sean claras para el usuario.

A medida que los productos de inteligencia artificial generativa ganan popularidad, los buenos diseñadores y gestores de productos recuerdan que el éxito no solo depende de la inteligencia de la IA, sino también de cómo el producto guía al usuario a través de los flujos de trabajo habilitados por la IA. Los conceptos fundamentales de diseño, como la retroalimentación, las posibilidades y las restricciones, siguen siendo tan importantes como siempre, pero las tácticas y los patrones de implementación evolucionan rápidamente. Utilizar bien estos patrones de diseño es fundamental para cualquier empresa de IA que aspire a perdurar más allá del ciclo inicial de entusiasmo y ofrecer un producto duradero y ampliamente utilizado.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Llama-2, GPT-4 o Claude-2; ¿Cuál es el mejor modelo de lenguaje de inteligencia artificial?

Los Modelos de Lenguaje Grandes (LLMs) han recibido mucha apreciación a nivel mundial y han ganado inmensa popularida...

Inteligencia Artificial

¡Gol! El equipo de NVIDIA se lleva el trofeo en Sistemas de Recomendación

Un equipo de cinco expertos en aprendizaje automático de NVIDIA, repartidos en cuatro continentes, ganó las tres tare...

Inteligencia Artificial

Persistent Systems moldea el futuro de la ingeniería de software con Amazon CodeWhisperer

Persistent Systems, un proveedor global de ingeniería digital, ha realizado varios pilotos y estudios formales con Am...

Inteligencia Artificial

Descubriendo el impacto de la IA generativa en la narración de datos y el análisis

Introducción En el amplio campo de la analítica de datos, uno de los desarrollos más profundos que cambia el juego es...