5 Cosas que Necesitas Saber al Construir Aplicaciones de Aprendizaje Automático
5 Cosas al Construir Aplicaciones de Aprendizaje Automático
La construcción de aplicaciones basadas en LLMs indudablemente puede proporcionar soluciones valiosas para varios problemas. Sin embargo, comprender y abordar de manera proactiva desafíos como alucinaciones, contexto rápido, confiabilidad, ingeniería rápida y seguridad será fundamental para aprovechar el verdadero potencial de los LLMs, al tiempo que se garantiza un rendimiento óptimo y la satisfacción del usuario. En este artículo, exploraremos estas cinco consideraciones cruciales que los desarrolladores y profesionales deben conocer al construir aplicaciones de LLMs.
1. Alucinaciones
- Investigadores de la Universidad de Boston lanzan la familia Platypus de LLMs afinados para lograr un refinamiento económico, rápido y potente de los LLMs base.
- IBM y NASA se unen para crear Earth Science GPT Descifrando los misterios de nuestro planeta
- Reconocimiento del lenguaje hablado en Mozilla Common Voice Transformaciones de audio.
Uno de los aspectos principales de los que debes cuidarte al usar LLMs son las alucinaciones. En el contexto de los LLMs, las alucinaciones se refieren a la generación de información irreal, incorrecta y sin sentido. Los LLMs son muy creativos y se pueden utilizar y ajustar para diferentes dominios, pero un problema crítico no resuelto que aún existe son sus alucinaciones. Dado que los LLMs no son motores de búsqueda ni bases de datos, estos errores son inevitables.
Para superar este problema, puedes utilizar la generación controlada proporcionando suficientes detalles y restricciones para el estímulo de entrada, limitando así la libertad del modelo para alucinar.
2. Elección del contexto adecuado
Como se mencionó, una de las soluciones al problema de las alucinaciones es proporcionar el contexto adecuado al estímulo de entrada para limitar la libertad del LLM para alucinar. Sin embargo, por otro lado, los LLMs tienen un límite en el número de palabras que se pueden utilizar. Una posible solución para este problema es utilizar indexación, en la cual los datos se convierten en vectores y se almacenan en una base de datos, y se busca el contenido adecuado durante el tiempo de ejecución. La indexación suele funcionar, pero es compleja de implementar.
3. Confiabilidad y consistencia
Uno de los problemas que enfrentarás si construyes una aplicación basada en LLMs es la confiabilidad y consistencia. Los LLMs no son confiables y consistentes para asegurar que la salida del modelo sea correcta o como se espera en todo momento. Puedes construir una demostración de una aplicación y ejecutarla varias veces, y cuando lances tu aplicación, descubrirás que la salida puede no ser consistente, lo que causará muchos problemas para tus usuarios y clientes.
4. La ingeniería del estímulo no es el futuro
La mejor manera de comunicarse con una computadora es a través de un lenguaje de programación o de máquina, no un lenguaje natural. Necesitamos una comunicación no ambigua para que la computadora comprenda nuestros requisitos. El problema con los LLMs es que si le pides a un LLM que haga una cosa específica con el mismo estímulo diez veces, es posible que obtengas diez salidas diferentes.
5. Problema de seguridad por inyección de estímulo
Otro problema al construir una aplicación basada en LLMs es la inyección de estímulo. En este caso, los usuarios obligarán a los LLMs a dar una salida determinada que no se espera. Por ejemplo, si creaste una aplicación para generar un guion de video de YouTube al proporcionar un título, un usuario puede instruir al LLM a olvidarlo todo y escribir una historia.
Conclusión
Construir una aplicación basada en LLMs es muy divertido y puede resolver varios problemas y automatizar muchas tareas. Sin embargo, también conlleva algunos problemas de los que debes cuidarte al construir aplicaciones basadas en LLMs. Comenzando por las alucinaciones, la elección del contexto adecuado para superar las alucinaciones y la confiabilidad y consistencia de la salida, y las preocupaciones de seguridad con la inyección de estímulo.
Referencias
- Una introducción suave a las alucinaciones en los modelos de lenguaje grandes
- 5 problemas al usar un modelo de lenguaje grande
Youssef Rafaat es un investigador de visión por computadora y científico de datos. Su investigación se centra en el desarrollo de algoritmos de visión por computadora en tiempo real para aplicaciones de atención médica. También ha trabajado como científico de datos durante más de 3 años en los campos de marketing, finanzas y atención médica.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Conoce a PUG una nueva investigación de IA de Meta AI sobre conjuntos de datos fotorrealistas y semánticamente controlables utilizando Unreal Engine para una evaluación de modelos robusta
- Investigadores de Salesforce presentan XGen-Image-1 un modelo de difusión latente de texto a imagen entrenado para reutilizar varios componentes preentrenados.
- Investigadores de UC Santa Cruz proponen una nueva herramienta de prueba de asociación de texto a imagen que cuantifica los estereotipos implícitos entre conceptos y valencia y los presentes en las imágenes
- Combinando los datos reales y las previsiones en una línea continua en Power BI
- Herramientas de IA para tu equipo de desarrollo ¿Adoptar o no adoptar?
- Una guía para construir modelos de datos en tiempo real con alto rendimiento
- Google AI presenta Visually Rich Document Understanding (VRDU) un conjunto de datos para un mejor seguimiento del progreso de la tarea de comprensión de documentos