Inteligencia Artificial Generativa en Azure Machine Learning Operacionalizando el Desarrollo de Aplicaciones para la Transformación de la IA

Inteligencia Artificial Generativa en Azure Operacionalizando el Desarrollo de Aplicaciones para Transformar la IA

En la era de la inteligencia artificial generativa, los líderes se encuentran en una intersección de innovación y propósito. La pregunta que resuena en las salas de juntas y en las conferencias de ciencia de datos es esta: ¿Cómo se pueden aprovechar estas nuevas tecnologías vanguardistas para avanzar en los objetivos organizativos con creatividad y agilidad empresarial, al tiempo que se equilibra la responsabilidad social? La inteligencia artificial generativa no es solo una herramienta; su promesa, combinada con datos comerciales únicos, impulsa la ventaja competitiva.

El equipo de Azure Machine Learning ha estado a la vanguardia de la innovación, infundiendo capacidades de IA generativa en nuestra plataforma durante el último año, incluida la adición de muchos modelos OSS a nuestro catálogo de modelos. En Microsoft Inspire, anunciamos la adición de los modelos Llama 2 de Meta y los modelos Falcon del Technology Innovation Institute.

El campo de MLOps ha evolucionado para incorporar LLMOps, el acto de refinar y comprender cómo seleccionar, ajustar y gestionar grandes modelos de transformadores para satisfacer una variedad de necesidades dentro de una organización, y en particular cómo supervisar estas soluciones a gran escala. Esto representa un nuevo conjunto de habilidades operativas para muchas empresas. Hemos invertido en esta área especializada al agregar varias capacidades a nuestra plataforma Azure Machine Learning.

Este mes, nos complace anunciar varias nuevas incorporaciones a nuestro portafolio de IA generativa en Azure Machine Learning.

Descubra, personalice e implemente modelos de visión y multi-modalidad en el catálogo de modelos de Azure Machine Learning

Siempre estamos buscando nuevas formas efectivas para que los profesionales y desarrolladores de aprendizaje automático descubran, generen, ajusten y implementen fácilmente soluciones de modelos de IA grandes preentrenados. En Build, anunciamos la versión preliminar pública de modelos fundamentales en el catálogo de modelos de Azure Machine Learning. El catálogo de modelos sirve como un centro central para explorar colecciones de varios modelos fundamentales de Hugging Face, Meta y Azure OpenAI Service. Hoy marca otro hito: la versión preliminar de un conjunto diverso de nuevos modelos de visión de código abierto, que abarcan la clasificación de imágenes, la detección de objetos y la segmentación de imágenes en nuestro catálogo de modelos.

Con estas nuevas capacidades, los desarrolladores podrán integrar fácilmente poderosos modelos de visión en sus aplicaciones e impulsar la innovación de IA en industrias como el mantenimiento predictivo, las soluciones de venta inteligente y los vehículos autónomos.

imagen en miniatura 1 de la publicación del blog titulada IA generativa en Azure Machine Learning: desarrollo operativo para la transformación de IA

Figura 1. Descubra modelos de visión en el catálogo de modelos de Azure Machine Learning.

Además, también estamos encantados de anunciar importantes actualizaciones en AutoML para imágenes y procesamiento de lenguaje natural (NLP), componentes integrales de la suite de Azure Machine Learning. La arquitectura actualizada pasa de un diseño monolítico a un canal modular basado en componentes, que ofrece una mayor escalabilidad, flexibilidad, capacidad de depuración y confiabilidad. Ahora puedes incorporar fácilmente los últimos modelos fundamentales en el catálogo de modelos en tus proyectos, adaptar pipelines a tareas específicas como la detección de objetos o la clasificación de texto y ahorrar en costos computacionales mediante una reutilización eficiente de componentes. Ya sea que esté ajustando modelos existentes o explorando nuevas arquitecturas, estas actualizaciones facilitan la ejecución, el monitoreo y la escalabilidad de sus proyectos de aprendizaje automático, aprovechando las últimas innovaciones en el panorama de la IA.

– Lee el blog de anuncios para obtener más información sobre los nuevos modelos de visión.

– Lee el blog de AutoML y NLP para profundizar en las mejoras de AutoML.

Introducción de una experiencia de desarrollo basada en código en el flujo de instrucción para un desarrollo simplificado

Los modelos de lenguaje grandes (LLM) han permitido muchas tareas inteligentes que antes eran inviables. Como resultado, existe una gran necesidad de construir aplicaciones de IA que aprovechen los LLM. A medida que los LLM evolucionan rápidamente, la ingeniería de instrucciones y LLMOps desempeñan un papel crucial en aprovechar todo el potencial de los LLM con soluciones de IA personalizadas que satisfacen necesidades comerciales específicas.

Para agilizar los procesos iterativos de ajustar la calidad a través de la ingeniería de instrucciones, presentamos Azure Machine Learning prompt flow en Build 2023, una experiencia de estudio interactiva para diseñar, experimentar, evaluar e implementar flujos de trabajo de LLM.

Prompt Flow ofrece una serie de beneficios que ayudan a los usuarios a pasar de la ideación a la experimentación y, finalmente, a las aplicaciones listas para la producción, infusionadas con LLM. Cuando hablamos con los clientes, las tres preguntas más comunes que escuchamos son: ¿cómo gestiono las versiones de las indicaciones, cómo integro los procesos CI/CD y cómo exporto e implemento mis flujos de indicaciones?

Para abordar estas preguntas y ampliar las capacidades hacia LLMOps más robusto, estamos introduciendo una experiencia basada en el código en el flujo de indicaciones a través de nuestro SDK, CLI y la extensión para VS Code, ahora disponible en vista previa. Ahora, los desarrolladores pueden exportar fácilmente una carpeta de flujo desde la interfaz de flujo de indicaciones e integrarla en su repositorio de código preferido, asegurando que sus flujos de trabajo e indicaciones estén controlados por versiones y rastreados de manera eficiente. El SDK de flujo de indicaciones no solo permite a los desarrolladores probar los flujos localmente y obtener resultados de ejecución única, sino que los usuarios también pueden enviar ejecuciones de flujos por lotes a un espacio de trabajo en la nube y evaluar rigurosamente los resultados de ejecución, lo que ofrece a los desarrolladores la capacidad de manejar escenarios extensos de pruebas. Para facilitar un pipeline de CI/CD sin problemas, CLI y SDK de flujo de indicaciones ofrecen una integración perfecta con Azure DevOps y GitHub Actions. La extensión de flujo de indicaciones para VS Code mejora esta experiencia de desarrollo al permitir pruebas rápidas, refinamiento y depuración de flujos, todo en una interfaz que replica la interfaz de usuario. Los usuarios también pueden importar directamente su flujo local al Azure Machine Learning UI o exportar una carpeta de flujo con CLI a local para realizar una transición fluida entre local y la nube, asegurándose de que el desarrollo local esté siempre sincronizado con la nube y aprovechar todo el poder de Azure Machine Learning.

– Mira este video de demostración para aprender cómo funcionan en la práctica las experiencias basadas en el código en el flujo de indicaciones.

– Visita nuestra documentación para obtener más información sobre el flujo de indicaciones.

Supervise sus aplicaciones generativas de IA en producción con Azure Machine Learning

La supervisión de modelos en producción es una parte esencial del ciclo de vida de la IA. Los cambios en los datos y el comportamiento del consumidor pueden influir en su aplicación con el tiempo, lo que resulta en sistemas de IA desactualizados que pueden producir resultados no deseados y afectar negativamente los resultados comerciales y exponer a las organizaciones a riesgos de cumplimiento y reputación. Desafortunadamente, el proceso de supervisión de aplicaciones generativas de IA para la seguridad, calidad y rendimiento es arduo sin herramientas preconstruidas. A partir de hoy, en vista previa, Azure Machine Learning permite a las organizaciones supervisar sus aplicaciones generativas de IA en producción.

Ahora los usuarios pueden recopilar datos de producción usando el Model Data Collector, analizar métricas clave de evaluación de seguridad y calidad de manera recurrente, recibir alertas oportunas sobre problemas críticos y visualizar los resultados a lo largo del tiempo en un panel completo dentro del estudio de Azure Machine Learning.

Esta capacidad se integra con las tuberías de evaluación, anotación y medición preconstruidas de AzureML para evaluar la seguridad y calidad de la generación. Ahora puede supervisar su aplicación en busca de métricas clave como coherencia, fluidez, fundamentos, relevancia y similitud, al mismo tiempo que configura sus propios umbrales personalizados.

En cuanto al rendimiento, utilizando las métricas del sistema de flujo de indicaciones, también puede ver y realizar un seguimiento del consumo de tokens para sus aplicaciones, como el recuento total de indicaciones y tokens de finalización para el uso de su aplicación.

En conjunto, estas capacidades pueden ayudarlo a identificar y diagnosticar problemas, comprender los patrones de uso e informar cómo optimizar su aplicación con la ingeniería de indicaciones. En última instancia, la supervisión de modelos para la IA generativa permite aplicaciones más precisas, responsables y conformes en producción.

Visita nuestra documentación para obtener más información sobre esta función.

Imagen en miniatura 2 de la publicación del blog titulada Generative AI in Azure Machine Learning: Operationalizing app development for AI transformation

Figura 2. En la página de resumen de supervisión, los usuarios pueden configurar la supervisión para su aplicación, ver el rendimiento general y revisar las notificaciones.

Imagen en miniatura 3 de la publicación del blog titulada Generative AI in Azure Machine Learning: Operationalizing app development for AI transformation

Figura 3. Dentro de la página de detalles de monitoreo, los usuarios pueden ver métricas de series temporales, histogramas, rendimiento detallado y resolver notificaciones.

Siguientes pasos

Nuestros anuncios este mes muestran cómo Azure Machine Learning está en un ciclo continuo de mejora mientras escuchamos a nuestros clientes y avanzamos nuestra plataforma. En tan solo unos meses en Microsoft Ignite, estamos listos para revelar varias nuevas capacidades que ayudarán a los científicos de datos y desarrolladores a desbloquear el poder de la IA generativa dentro de sus organizaciones. Esperamos que se unan a nosotros para obtener más información. Mientras tanto, prueben Azure Machine Learning de forma gratuita, y los animamos a que se unan a nuestro Programa de Insiders. Si ya son clientes de Azure Machine Learning, por favor visiten nuestro sitio web de documentación para obtener información adicional.

¡Aprende más aquí!

Artículo originalmente publicado aquí por Richard Tso. Repostado con permiso.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Cómo implementar la IA adaptativa en tu negocio.

La inteligencia artificial ha surgido como una tecnología poderosa que puede impulsar transformaciones sustanciales e...

Inteligencia Artificial

Este artículo de IA propone un método novedoso basado en gradientes llamado Cones para analizar e identificar las neuronas conceptuales en modelos de difusión

La compleja estructura del cerebro le permite realizar tareas cognitivas y creativas asombrosas. Según la investigaci...

Inteligencia Artificial

La IA escribió un proyecto de ley de vivienda. Los críticos dicen que no es inteligente

Un asambleísta de Queens utilizó un programa de inteligencia artificial para identificar vacíos en la ley de Nueva Yo...

Inteligencia Artificial

AI2 presenta Dolma un corpus de 3 billones de tokens que pionera la transparencia en la investigación de modelos de lenguaje

La transparencia y apertura en la investigación de modelos de lenguaje han sido temas controvertidos desde hace mucho...