Bienvenido a una nueva era de construcción en la nube con IA generativa en AWS

¡Bienvenido a la nueva era de construcción en la nube con IA generativa en AWS!

Creemos que la inteligencia artificial generativa tiene el potencial con el tiempo de transformar virtualmente todas las experiencias del cliente que conocemos. El número de empresas que están lanzando aplicaciones de inteligencia artificial generativa en AWS es considerable y está creciendo rápidamente, incluyendo adidas, Booking.com, Bridgewater Associates, Clariant, Cox Automotive, GoDaddy y LexisNexis Legal & Professional, por nombrar solo algunas. Startups innovadoras como Perplexity AI están apostando completamente por AWS para la inteligencia artificial generativa. Empresas líderes en inteligencia artificial como Anthropic han seleccionado AWS como su proveedor principal de servicios en la nube para cargas de trabajo críticas y como el lugar para entrenar sus modelos futuros. Y proveedores de servicios y soluciones globales como Accenture están aprovechando los beneficios de aplicaciones personalizadas de inteligencia artificial generativa, empoderando a sus desarrolladores internos con Amazon CodeWhisperer.

Estos clientes eligen AWS porque nos enfocamos en hacer lo que siempre hemos hecho: tomar tecnología compleja y costosa que puede transformar las experiencias del cliente y los negocios, y democratizarla para clientes de todos los tamaños y habilidades técnicas. Para hacer esto, estamos invirtiendo e innovando rápidamente para proporcionar el conjunto más completo de capacidades en las tres capas del stack de inteligencia artificial generativa. La capa inferior es la infraestructura para entrenar Modelos de Lenguaje Grande (LLMs) y otros Modelos de Base (FMs) y producir inferencias o predicciones. La capa intermedia es el fácil acceso a todos los modelos y herramientas que los clientes necesitan para construir y escalar aplicaciones de inteligencia artificial generativa con la misma seguridad, control de acceso y otras características que los clientes esperan de un servicio de AWS. Y en la capa superior, hemos estado invirtiendo en aplicaciones revolucionarias en áreas clave como la codificación basada en inteligencia artificial generativa. Además de ofrecerles opciones y, como ellos esperan de nosotros, amplitud y profundidad de capacidades en todas las capas, los clientes también nos dicen que aprecian nuestro enfoque basado en datos y confían en que hemos construido todo desde cero con seguridad y privacidad de calidad empresarial.

Esta semana dimos un gran paso adelante, anunciando muchas nuevas capacidades significativas en las tres capas del stack para hacer que sea fácil y práctico para nuestros clientes utilizar la inteligencia artificial generativa de manera generalizada en sus negocios.

Capa inferior del stack: AWS Trainium2 es la última incorporación para ofrecer la infraestructura de nube más avanzada para la inteligencia artificial generativa

La capa inferior del stack es la infraestructura – computación, redes, marcos, servicios, necesarios para entrenar y ejecutar LLMs y otros FMs. AWS innova para ofrecer la infraestructura más avanzada para el aprendizaje automático (ML). A través de nuestra colaboración de larga data con NVIDIA, AWS fue el primero en llevar las GPU a la nube hace más de 12 años y, recientemente, fuimos el primer proveedor de servicios en la nube importante en poner a disposición las GPU NVIDIA H100 con nuestras instancias P5. Seguimos invirtiendo en innovaciones únicas que hacen de AWS la mejor nube para ejecutar GPU, incluyendo los beneficios de rendimiento-precio del sistema de virtualización más avanzado (AWS Nitro), una poderosa red de escala de petabits con Elastic Fabric Adapter (EFA) y clustering de hiperescala con Amazon EC2 UltraClusters (miles de instancias aceleradas co-ubicadas en una zona de disponibilidad e interconectadas en una red no bloqueante que puede ofrecer hasta 3.200 Gbps para entrenamiento de ML a gran escala). También estamos facilitando que cualquier cliente acceda a la capacidad de cómputo GPU altamente demandada para inteligencia artificial generativa con Amazon EC2 Capacity Blocks for ML: el primer y único modelo de consumo en la industria que permite a los clientes reservar GPUs para uso futuro (hasta 500 implementadas en EC2 UltraClusters) para cargas de trabajo de ML de corta duración.

Hace varios años, nos dimos cuenta de que para seguir empujando los límites en precio y rendimiento, necesitaríamos innovar hasta llegar al silicio, y comenzamos a invertir en nuestros propios chips. Para el aprendizaje automático específicamente, comenzamos con AWS Inferentia, nuestro chip de inferencia creado específicamente. Hoy en día, estamos en nuestra segunda generación de AWS Inferentia con instancias Amazon EC2 Inf2 que están optimizadas específicamente para aplicaciones de inteligencia artificial generativa a gran escala con modelos que contienen cientos de miles de millones de parámetros. Las instancias Inf2 ofrecen el costo más bajo para la inferencia en la nube y también ofrecen hasta cuatro veces mayor rendimiento y hasta diez veces menor latencia en comparación con las instancias Inf1. Potenciadas por hasta 12 chips Inferentia2, las instancias Inf2 son las únicas instancias de EC2 optimizadas para la inferencia que tienen conectividad de alta velocidad entre aceleradores, por lo que los clientes pueden ejecutar la inferencia de forma más rápida y eficiente (a un menor costo) sin sacrificar rendimiento o latencia al distribuir modelos ultragrandes entre múltiples aceleradores. Clientes como Adobe, Deutsche Telekom y Leonardo.ai han obtenido excelentes resultados iniciales y están emocionados de implementar sus modelos a gran escala en Inf2.

En el lado del entrenamiento, las instancias Trn1 —impulsadas por el chip de entrenamiento ML de AWS, AWS Trainium— están optimizadas para distribuir el entrenamiento en múltiples servidores conectados con la red EFA. Clientes como Ricoh han entrenado un LLM japonés con miles de millones de parámetros en cuestión de días. Databricks está obteniendo hasta un 40% mejor rendimiento de precio con instancias basadas en Trainium para entrenar modelos de aprendizaje profundo a gran escala. Pero con nuevos modelos más capaces saliendo prácticamente todas las semanas, seguimos empujando los límites en rendimiento y escala, y nos complace anunciar AWS Trainium2, diseñado para ofrecer un rendimiento de precio aún mejor para entrenar modelos con cientos de miles de millones a billones de parámetros. Trainium2 debería ofrecer un rendimiento de entrenamiento hasta cuatro veces más rápido que Trainium de primera generación, y cuando se usa en EC2 UltraClusters debería ofrecer hasta 65 exaflops de cómputo agregado. Esto significa que los clientes podrán entrenar un LLM de 300 mil millones de parámetros en semanas en lugar de meses. El rendimiento, la escala y la eficiencia energética de Trainium2 son algunas de las razones por las que Anthropic ha elegido entrenar sus modelos en AWS, y utilizará Trainium2 para sus futuros modelos. Y estamos colaborando con Anthropic en una innovación continua tanto con Trainium como con Inferentia. Esperamos que nuestras primeras instancias de Trainium2 estén disponibles para los clientes en 2024.

También hemos estado centrándonos en la cadena de herramientas de software para nuestro silicio de ML, específicamente en el avance de AWS Neuron, el kit de desarrollo de software (SDK) que ayuda a los clientes a obtener el máximo rendimiento de Trainium e Inferentia. Desde que introdujimos Neuron en 2019, hemos realizado inversiones sustanciales en tecnologías de compilador y marco, y hoy Neuron admite muchos de los modelos públicamente disponibles más populares, incluidos Llama 2 de Meta, MPT de Databricks y Stable Diffusion de Stability AI, además de 93 de los 100 mejores modelos en el popular repositorio de modelos Hugging Face. Neuron se integra en marcos populares de ML como PyTorch y TensorFlow, y el soporte para JAX llegará a principios del próximo año. Los clientes nos dicen que Neuron les ha facilitado cambiar sus tuberías de entrenamiento e inferencia de modelos existentes a Trainium e Inferentia con solo unas pocas líneas de código.

Nadie más ofrece esta misma combinación de elección de los mejores chips de ML, red de súper alta velocidad, virtualización y clusters de hiperescala. Por eso no sorprende que algunas de las startups de IA generativa más conocidas, como AI21 Labs, Anthropic, Hugging Face, Perplexity AI, Runway y Stability AI, funcionen en AWS. Pero aún necesitas las herramientas adecuadas para aprovechar eficazmente este cómputo y construir, entrenar y ejecutar LLM y otros FMs de manera eficiente y rentable. Y para muchas de estas startups, Amazon SageMaker es la respuesta. Tanto si se trata de construir y entrenar un modelo nuevo y exclusivo desde cero como de comenzar con uno de los muchos modelos públicamente disponibles más populares, el entrenamiento es una tarea compleja y costosa. También resulta difícil ejecutar estos modelos de manera rentable. Los clientes deben adquirir grandes cantidades de datos y prepararlos. Esto suele implicar mucho trabajo manual para limpiar los datos, eliminar duplicados, enriquecerlos y transformarlos. Luego tienen que crear y mantener grandes clusters de GPUs/aceleradores, escribir código para distribuir eficientemente el entrenamiento del modelo en los clusters, realizar checkpoints con frecuencia, pausar, inspeccionar y optimizar el modelo, e intervenir y solucionar manualmente problemas de hardware en el cluster. Muchos de estos desafíos no son nuevos, son algunas de las razones por las que lanzamos SageMaker hace seis años, para derribar las muchas barreras involucradas en el entrenamiento y despliegue de modelos y ofrecer a los desarrolladores una forma mucho más sencilla. Decenas de miles de clientes utilizan Amazon SageMaker, y un número cada vez mayor de ellos, como LG AI Research, Perplexity AI, AI21, Hugging Face y Stability AI, están entrenando LLM y otros FMs en SageMaker. Recientemente, Technology Innovation Institute (creadores de los populares Falcon LLMs) entrenó el modelo de mayor tamaño disponible públicamente, el Falcon 180B, en SageMaker. A medida que el tamaño y la complejidad de los modelos han aumentado, también lo ha hecho el alcance de SageMaker.

A lo largo de los años, hemos agregado más de 380 características y capacidades que marcan la diferencia en Amazon SageMaker, como el ajuste automático de modelos, el entrenamiento distribuido, opciones flexibles para implementar modelos, herramientas para OPs de ML, herramientas para la preparación de datos, almacenes de funciones, cuadernos, integración perfecta con evaluaciones humanas en el ciclo de vida de ML y funciones integradas para la IA responsable. Seguimos innovando rápidamente para asegurarnos de que los clientes de SageMaker puedan seguir construyendo, entrenando y ejecutando inferencia para todos los modelos, incluidos LLM y otros FMs. Y estamos haciendo que sea aún más fácil y rentable para los clientes entrenar y desplegar grandes modelos con dos nuevas capacidades. En primer lugar, para simplificar el entrenamiento, estamos introduciendo Amazon SageMaker HyperPod, que automatiza más de los procesos requeridos para el entrenamiento distribuido de alta escala y tolerancia a fallos (por ejemplo, configurar bibliotecas de entrenamiento distribuido, escalar cargas de trabajo de entrenamiento en miles de aceleradores, detectar y reparar instancias defectuosas), acelerando el entrenamiento hasta en un 40%. Como resultado, clientes como Perplexity AI, Hugging Face, Stability, Hippocratic, Alkaid y otros están utilizando SageMaker HyperPod para construir, entrenar o evolucionar modelos. En segundo lugar, estamos introduciendo nuevas capacidades para hacer que la inferencia sea más rentable y reducir la latencia. SageMaker ahora ayuda a los clientes a implementar múltiples modelos en la misma instancia para que puedan compartir recursos de cómputo, reduciendo el costo de la inferencia en un 50% (en promedio). SageMaker también monitorea activamente las instancias que están procesando solicitudes de inferencia y enruta inteligentemente las solicitudes en función de las instancias disponibles, logrando una latencia de inferencia un 20% menor (en promedio). Conjecture, Salesforce y Slack ya están utilizando SageMaker para alojar modelos debido a estas optimizaciones de inferencia.

Capa intermedia de la pila: Amazon Bedrock añade nuevos modelos y una ola de nuevas capacidades que hacen aún más fácil para los clientes construir y escalar aplicaciones de IA generativas de forma segura

Mientras que algunos clientes construirán sus propios LLM y otros FM, o evolucionarán alguna de las opciones disponibles públicamente, muchos no querrán gastar los recursos y el tiempo para hacer esto. Para ellos, la capa intermedia de la pila ofrece estos modelos como servicio. Nuestra solución, Amazon Bedrock, permite a los clientes elegir entre modelos líderes en la industria de Anthropic, Stability AI, Meta, Cohere, AI21 y Amazon, personalizarlos con sus propios datos y aprovechar todas las mismas características de seguridad, controles de acceso y funcionalidades a las que están acostumbrados en AWS, todo a través de un servicio gestionado. Hemos lanzado Amazon Bedrock de forma general en septiembre, y la respuesta de los clientes ha sido abrumadoramente positiva. Los clientes de todo el mundo y de casi todas las industrias están emocionados de usar Amazon Bedrock. adidas está permitiendo a los desarrolladores obtener respuestas rápidas sobre todo, desde información para “empezar” hasta preguntas técnicas más profundas. Booking.com planea utilizar la IA generativa para redactar recomendaciones de viaje personalizadas para cada cliente. Bridgewater Associates está desarrollando un Asistente de Analistas de Inversión basado en LLM para ayudar a generar gráficos, calcular indicadores financieros y resumir resultados. Carrier está proporcionando análisis y conocimientos energéticos más precisos y accesibles a los clientes para que reduzcan su consumo de energía y las emisiones de carbono. Clariant está empoderando a sus miembros del equipo con un chatbot de IA generativa interna para acelerar los procesos de I+D, apoyar a los equipos de ventas en la preparación de reuniones y automatizar los correos electrónicos a los clientes. GoDaddy está ayudando a los clientes a configurar fácilmente sus negocios en línea utilizando IA generativa para construir sus sitios web, encontrar proveedores, conectarse con los clientes y más. Lexis Nexis Legal & Professional está transformando el trabajo legal para los abogados y aumentando su productividad con las capacidades de búsqueda, resumen y redacción y análisis de documentos de IA conversacional de Lexis+. Nasdaq está ayudando a automatizar los flujos de trabajo de investigación sobre transacciones sospechosas y fortalecer sus capacidades de lucha contra el delito financiero y vigilancia. Todas estas y muchas otras aplicaciones diversas de IA generativa están funcionando en AWS.

Capa superior del conjunto: la innovación continua hace que la IA generativa sea accesible para más usuarios

En la capa superior del conjunto se encuentran aplicaciones que aprovechan LLMs y otros FMs para que puedas beneficiarte de la IA generativa en el trabajo. Una área donde la IA generativa ya está cambiando el juego es en la codificación. El año pasado, presentamos Amazon CodeWhisperer, que te ayuda a construir aplicaciones más rápidamente y de manera más segura generando sugerencias y recomendaciones de código en tiempo real. Clientes como Accenture, Boeing, Bundesliga, The Cigna Group, Kone y Warner Music Group están utilizando CodeWhisperer para aumentar la productividad de los desarrolladores, y Accenture está habilitando a hasta 50,000 de sus desarrolladores de software y profesionales de TI con Amazon CodeWhisperer. Queremos que tantos desarrolladores como sea posible puedan obtener los beneficios de productividad de la IA generativa, por eso CodeWhisperer ofrece recomendaciones de forma gratuita para todos los individuos.

Sin embargo, aunque las herramientas de codificación de IA hacen mucho para facilitar la vida de los desarrolladores, sus beneficios de productividad están limitados por su falta de conocimiento de bases de código internas, API internas, librerías, paquetes y clases internas. Una forma de pensar en esto es que si contratas a un nuevo desarrollador, aunque sea de primera categoría, no será muy productivo en tu empresa hasta que entienda tus mejores prácticas y código. Las herramientas de codificación impulsadas por IA de hoy en día son como ese nuevo desarrollador contratado. Para ayudar con esto, recientemente presentamos una nueva capacidad de personalización en Amazon CodeWhisperer que aprovecha de manera segura la base de código interna de un cliente para proporcionar recomendaciones de código más relevantes y útiles. Con esta capacidad, CodeWhisperer se convierte en un experto en tu código y ofrece recomendaciones más relevantes para ahorrar aún más tiempo. En un estudio que realizamos con Persistent, una empresa global de ingeniería digital y modernización empresarial, descubrimos que las personalizaciones ayudan a los desarrolladores a completar tareas hasta un 28% más rápido que con las capacidades generales de CodeWhisperer. Ahora, un desarrollador en una empresa de tecnología de la salud puede pedirle a CodeWhisperer que “importe imágenes de resonancia magnética asociadas con el ID del cliente y ejecútelas a través del clasificador de imágenes” para detectar anomalías. Debido a que CodeWhisperer tiene acceso a la base de código, puede proporcionar sugerencias mucho más relevantes que incluyen las ubicaciones de importación de las imágenes de resonancia magnética y los ID de cliente. CodeWhisperer mantiene las personalizaciones completamente privadas, y el FM subyacente no las usa para el entrenamiento, protegiendo la valiosa propiedad intelectual de los clientes. AWS es el único proveedor principal de servicios en la nube que ofrece una capacidad como esta a todos.

Presentando Amazon Q, el asistente generativo impulsado por IA diseñado para el trabajo

Los desarrolladores ciertamente no son los únicos que tienen experiencia en la IA generativa, millones de personas están utilizando aplicaciones de chat generativo de IA. Lo que han hecho los proveedores tempranos en este espacio es emocionante y muy útil para los consumidores, pero en muchos aspectos no funcionan bien en el trabajo. Su conocimiento general y sus capacidades son excelentes, pero no conocen tu empresa, tus datos, tus clientes, tus operaciones ni tu negocio. Eso limita cuanto te pueden ayudar. Tampoco saben mucho sobre tu puesto de trabajo, qué trabajo haces, con quién trabajas, qué información utilizas y a qué tienes acceso. Estas limitaciones son comprensibles porque estos asistentes no tienen acceso a la información privada de tu empresa, y no fueron diseñados para cumplir con los requisitos de privacidad y seguridad de datos que las empresas necesitan para darles este acceso. Es difícil agregar la seguridad después y esperar que funcione bien. Creemos que tenemos una mejor manera, que permitirá que cada persona en cada organización use la IA generativa de manera segura en su trabajo diario.

Estamos emocionados de presentar Amazon Q, un nuevo tipo de asistente generativo impulsado por IA diseñado específicamente para el trabajo y que puede adaptarse a tu empresa. Q puede ayudarte a obtener respuestas rápidas y relevantes a preguntas urgentes, resolver problemas, generar contenido y tomar acciones utilizando los datos y la experiencia que se encuentran en los repositorios de información, código y sistemas empresariales de tu empresa. Cuando chat-as hablas con Amazon Q, proporciona información y consejos inmediatos y relevantes para ayudar a agilizar tareas, acelerar la toma de decisiones y fomentar la creatividad e innovación en el trabajo. Hemos construido Amazon Q para ser seguro y privado, y puede entender y respetar tus identidades, roles y permisos existentes, y utilizar esta información para personalizar sus interacciones. Si un usuario no tiene permiso para acceder a ciertos datos sin Q, tampoco puede acceder a ellos usando Q. Hemos diseñado Amazon Q para cumplir con los estrictos requisitos de los clientes empresariales desde el primer día, ninguno de sus contenidos se utiliza para mejorar los modelos subyacentes.

Amazon Q es tu asistente experto para construir en AWS: Hemos entrenado a Amazon Q con 17 años de conocimiento y experiencia en AWS para que pueda transformar la forma en que construyes, implementas y operas aplicaciones y cargas de trabajo en AWS. Amazon Q tiene una interfaz de chat en la Consola de administración de AWS y documentación, tu IDE (a través de CodeWhisperer), y las salas de chat de tu equipo en Slack u otras aplicaciones de chat. Amazon Q puede ayudarte a explorar nuevas capacidades de AWS, comenzar más rápido, aprender tecnologías desconocidas, diseñar soluciones, solucionar problemas, actualizar y mucho más; es un experto en patrones bien arquitectados, mejores prácticas, documentación e implementaciones de soluciones de AWS. Aquí tienes algunos ejemplos de lo que puedes hacer con tu nuevo asistente experto de AWS:

  • Obtener respuestas precisas y orientación sobre las capacidades, servicios y soluciones de AWS: Pregúntale a Amazon Q “Cuéntame acerca de Agents for Amazon Bedrock” y Q te dará una descripción de la función junto con enlaces a materiales relevantes. También puedes preguntarle a Amazon Q cualquier pregunta sobre cómo funciona un servicio de AWS (por ejemplo, “¿Cuáles son los límites de escalabilidad en una tabla de DynamoDB?”) o cómo diseñar mejor cualquier número de soluciones (“¿Cuáles son las mejores prácticas para construir arquitecturas basadas en eventos?”). Y Amazon Q proporcionará respuestas concisas siempre citando (y vinculando) sus fuentes.
  • Elige el mejor servicio de AWS para tu caso de uso y comienza rápidamente: Pregúntale a Amazon Q “¿Cuáles son las formas de construir una aplicación web en AWS?” y te proporcionará una lista de servicios potenciales como AWS Amplify, AWS Lambda y Amazon EC2 con las ventajas de cada uno. A partir de ahí, puedes reducir las opciones ayudando a Q a entender tus requisitos, preferencias y limitaciones (por ejemplo, “¿Cuál de estos sería el mejor si quiero utilizar contenedores?” o “¿Debo utilizar una base de datos relacional o no relacional?”). Finaliza con “¿Cómo empiezo?” y Amazon Q te marcará algunos pasos básicos y te mostrará recursos adicionales.
  • Optimiza tus recursos informáticos: Amazon Q puede ayudarte a seleccionar instancias de Amazon EC2. Si le pides que te ayude a encontrar la instancia de EC2 adecuada para implementar una carga de trabajo de codificación de videos para tu aplicación de juegos con el mejor rendimiento, Q te ofrecerá una lista de familias de instancias con razones para cada sugerencia. Además, puedes hacer cualquier cantidad de preguntas de seguimiento para ayudarte a encontrar la mejor opción para tu carga de trabajo.
  • Obtén asistencia para depurar, probar y optimizar tu código: Si encuentras un error mientras programas en tu IDE, puedes pedirle ayuda a Amazon Q diciendo “Mi código tiene un error de E/S, ¿puedes proporcionar una solución?” y Q generará el código por ti. Si te gusta la sugerencia, puedes pedirle a Amazon Q que agregue la corrección a tu aplicación. Como Amazon Q está en tu IDE, entiende el código en el que estás trabajando y sabe dónde insertar la corrección. Amazon Q también puede crear pruebas unitarias (“Escribe pruebas unitarias para la función seleccionada”) que puede insertar en tu código y que puedes ejecutar. Finalmente, Amazon Q puede darte formas de optimizar tu código para obtener un mejor rendimiento. Pídele a Q que “Optimice mi consulta seleccionada de DynamoDB” y utilizará su comprensión de tu código para darte una sugerencia en lenguaje natural sobre qué corregir, junto con el código correspondiente que puedes implementar con un solo clic.
  • Diagnostica y soluciona problemas: Si encuentras problemas en la Consola de administración de AWS, como errores de permisos de EC2 o errores de configuración de Amazon S3, simplemente presiona el botón “Solucionar problemas con Amazon Q” y utilizará su comprensión del tipo de error y el servicio donde se encuentra el error para darte sugerencias de solución. Incluso puedes pedirle a Amazon Q que solucione problemas de tu red (por ejemplo, “¿Por qué no puedo conectarme a mi instancia de EC2 mediante SSH?”) y Q analizará tu configuración de extremo a extremo y te brindará un diagnóstico (por ejemplo, “Esta instancia parece estar en una subred privada, por lo que puede ser necesario establecer la accesibilidad pública”).
  • Aprende rápidamente una nueva base de código: Cuando chateas con Amazon Q en tu IDE, combina su experiencia en la construcción de software con una comprensión de tu código, ¡una combinación poderosa! Anteriormente, si asumías un proyecto de otra persona o eras nuevo en el equipo, tenías que pasar horas revisando manualmente el código y la documentación para comprender cómo funciona y qué hace. Ahora, dado que Amazon Q comprende el código en tu IDE, simplemente puedes pedirle a Amazon Q que explique el código (“Proporcióname una descripción de lo que hace esta aplicación y cómo funciona”) y Q te dará detalles como qué servicios utiliza el código y qué hacen diferentes funciones (por ejemplo, Q podría responder algo como “Esta aplicación está construyendo un sistema de tickets de soporte básico utilizando Python Flask y AWS Lambda” y continuar describiendo cada una de sus capacidades principales, cómo se implementan y mucho más).
  • Elimina más rápidamente las tareas pendientes de características: Incluso puedes pedirle a Amazon Q que te guíe y automatice gran parte del proceso de agregar una función a tu aplicación en Amazon CodeCatalyst, nuestro servicio unificado de desarrollo de software para equipos. Para hacer esto, simplemente asigna a Q una tarea de tu lista de problemas, al igual que lo harías con un compañero de equipo, y Q generará un plan paso a paso sobre cómo construir e implementar la función. Una vez que apruebes el plan, Q escribirá el código y te presentará los cambios propuestos para que los revises. Puedes solicitar modificaciones (si es necesario), aprobar y/o implementar.
  • Actualiza tu código en una fracción de tiempo: La mayoría de los desarrolladores en realidad solo dedican una fracción de su tiempo a escribir nuevo código y construir nuevas aplicaciones. Pasan mucho más tiempo en áreas dolorosas y tediosas como el mantenimiento y las actualizaciones. Tomemos como ejemplo las actualizaciones de versiones de lenguaje. Un gran número de clientes sigue utilizando versiones antiguas de Java porque llevará meses, incluso años, y miles de horas de desarrollo para actualizar. Posponer esto tiene costos y riesgos reales: te pierdes mejoras de rendimiento y quedas expuesto a problemas de seguridad. Creemos que Amazon Q puede marcar la diferencia aquí y estamos entusiasmados con Amazon Q Code Transformation, una función que puede eliminar gran parte de esta carga pesada y reducir el tiempo que lleva actualizar aplicaciones de días a minutos. Simplemente abre el código que deseas actualizar en tu IDE y pídele a Amazon Q que “/transforme” tu código. Amazon Q analizará todo el código fuente de la aplicación, generará el código en el lenguaje y versión de destino y ejecutará pruebas, lo que te ayudará a disfrutar de las mejoras en seguridad y rendimiento de las últimas versiones del lenguaje. Recientemente, un equipo muy pequeño de desarrolladores de Amazon utilizó Amazon Q Code Transformation para actualizar 1,000 aplicaciones de producción de Java 8 a Java 17 en solo dos días. El tiempo promedio por aplicación fue inferior a 10 minutos. Actualmente, Amazon Q Code Transformation realiza actualizaciones de lenguaje de Java 8 o Java 11 a Java 17. Próximamente (y muy pronto), estará disponible la capacidad para transformar .NET Framework en .NET multiplataforma (con incluso más transformaciones por venir en el futuro).

Amazon Q es tu experto empresarial: Puedes conectar Amazon Q a tus datos empresariales, información y sistemas para que pueda sintetizar todo y brindar asistencia personalizada para ayudar a las personas a resolver problemas, generar contenido y tomar acciones relevantes para tu negocio. Traer Amazon Q a tu negocio es fácil. Tiene más de 40 conectores integrados a sistemas empresariales populares como Amazon S3, Microsoft 365, Salesforce, ServiceNow, Slack, Atlassian, Gmail, Google Drive y Zendesk. También puede conectarse a tu intranet interna, wikis y manuales de ejecución, y con el SDK de Amazon Q, puedes construir una conexión con cualquier aplicación interna que desees. Apunta a Amazon Q a estos repositorios y “se pondrá al día” en tu negocio, capturando y comprendiendo la información semántica que hace que tu empresa sea única. Luego, obtienes tu propia aplicación web amigable y sencilla de Amazon Q para que los empleados de toda tu empresa puedan interactuar con la interfaz de conversación. Amazon Q también se conecta a tu proveedor de identidad para comprender a un usuario, su rol y los sistemas a los que tiene acceso permitido, de modo que los usuarios puedan realizar preguntas detalladas y sutiles y obtener resultados adaptados que incluyan solo la información a la que tienen autorización para ver. Amazon Q genera respuestas e ideas precisas y fieles al material y conocimiento que le proporcionas, y puedes restringir temas sensibles, bloquear palabras clave o filtrar preguntas y respuestas inapropiadas. Estos son algunos ejemplos de lo que puedes hacer con tu nuevo asistente experto para tu negocio:

  • Obtener respuestas claras y súper relevantes basadas en los datos e información de tu negocio: Los empleados pueden preguntarle a Amazon Q sobre cualquier cosa que antes tenían que buscar en diversas fuentes. Pregúntale “¿Cuáles son las últimas pautas para el uso del logotipo?” o “¿Cómo solicito una tarjeta de crédito corporativa?” y Amazon Q sintetizará todo el contenido relevante que encuentre y te proporcionará respuestas rápidas junto con enlaces a las fuentes relevantes (por ejemplo, portales de marca y repositorios de logotipos, políticas de gastos de viaje de la empresa y solicitudes de tarjetas).
  • Optimizar las comunicaciones diarias: Solo pregúntale y Amazon Q puede generar contenido (“Crea una publicación de blog y tres titulares en redes sociales anunciando el producto descrito en esta documentación”), crear resúmenes ejecutivos (“Resume nuestra reunión transcribiendo una lista de tareas pendientes”), proporcionar actualizaciones por correo electrónico (“Redacta un correo electrónico destacando nuestros programas de capacitación del tercer trimestre para clientes en India”) y ayudar a estructurar reuniones (“Crea un orden del día para hablar sobre el último informe de satisfacción del cliente”).
  • Completar tareas: Amazon Q puede ayudar a completar ciertas tareas, reduciendo el tiempo que los empleados dedican a trabajos repetitivos como el registro de tickets. Pídele a Amazon Q que “Resuma los comentarios de los clientes sobre la nueva oferta de precios en Slack” y luego solicita que Q tome esa información y abra un ticket en Jira para actualizar al equipo de marketing. Puedes pedirle a Q que “Resuma esta transcripción de la llamada” y luego “Abra un nuevo caso para el cliente A en Salesforce”. Amazon Q también es compatible con otras herramientas populares de automatización del trabajo como Zendesk y Service Now.

Amazon Q está en Amazon QuickSight: Con Amazon Q en QuickSight, el servicio de inteligencia empresarial de AWS, los usuarios pueden hacer preguntas a sus paneles como “¿Por qué aumentaron el número de pedidos el mes pasado?” y obtener visualizaciones y explicaciones de los factores que influyeron en el aumento. Y los analistas pueden usar Amazon Q para reducir el tiempo que les lleva crear paneles de días a minutos con una simple indicación como “Muéstrame las ventas por región por mes en un gráfico de barras apiladas”. Q regresa de inmediato con ese diagrama y puedes agregarlo fácilmente a un panel o seguir conversando con Q para refinar la visualización (por ejemplo, “Cambia el gráfico de barras a un diagrama de Sankey” o “Muestra países en lugar de regiones”). Amazon Q en QuickSight también facilita el uso de paneles existentes para informar a los interesados ​​del negocio, destilar información clave y simplificar la toma de decisiones mediante historias de datos. Por ejemplo, los usuarios pueden indicarle a Amazon Q “Crear una historia sobre cómo ha cambiado el negocio en el último mes para una revisión empresarial con la alta dirección” y en cuestión de segundos, Amazon Q entrega una historia basada en datos que es visualmente convincente y completamente personalizable. Estas historias se pueden compartir de manera segura en toda la organización para ayudar a alinear a los interesados ​​y tomar mejores decisiones.

Amazon Q está en Amazon Connect: En Amazon Connect, nuestro servicio de centro de contacto, Amazon Q ayuda a tus agentes de servicio al cliente a brindar un mejor servicio. Amazon Q aprovecha los repositorios de conocimiento que tus agentes suelen usar para obtener información para los clientes, y luego los agentes pueden chatear directamente con Amazon Q en Connect para obtener respuestas que les ayuden a responder más rápidamente a las solicitudes de los clientes sin necesidad de buscar en la documentación ellos mismos. Y aunque chatear con Amazon Q para obtener respuestas ultrarrápidas es genial, en el servicio al cliente no existe algo como “demasiado rápido”. Es por eso que Amazon Q en Connect convierte una conversación en vivo con un cliente y un agente en una indicación, y proporciona automáticamente al agente posibles respuestas, acciones sugeridas y enlaces a recursos. Por ejemplo, Amazon Q puede detectar que un cliente se comunica con una empresa de alquiler de autos para cambiar su reserva, generar una respuesta para el agente que comunique rápidamente cómo se aplican las políticas de cambio de la empresa y guiar al agente a través de los pasos que necesita para actualizar la reserva.

Amazon Q está en AWS Supply Chain (Próximamente): En AWS Supply Chain, nuestro servicio de análisis de la cadena de suministro, Amazon Q ayuda a los planificadores de oferta y demanda, administradores de inventario y socios comerciales a optimizar su cadena de suministro mediante la recopilación y resaltado de posibles riesgos de agotamiento de stock o exceso de existencias, y visualizar escenarios para resolver el problema. Los usuarios pueden hacer preguntas a Amazon Q como “qué”, “por qué” y “qué pasaría si” acerca de sus datos de cadena de suministro y conversar sobre escenarios complejos y las compensaciones entre diferentes decisiones de la cadena de suministro. Por ejemplo, un cliente podría preguntar: “¿Qué está causando el retraso en mis envíos y cómo puedo acelerar las cosas?” a lo que Amazon Q podría responder: “El 90% de sus pedidos están en la costa este, y una gran tormenta en el sureste está causando un retraso de 24 horas. Si envía a través del puerto de Nueva York en lugar de Miami, agilizará las entregas y reducirá los costos en un 50%”.

Nuestros clientes están adoptando rápidamente la inteligencia artificial generativa: están entrenando modelos innovadores en AWS, están desarrollando aplicaciones de IA generativa a una velocidad récord utilizando Amazon Bedrock y están implementando aplicaciones revolucionarias en sus organizaciones como Amazon Q. Con nuestros últimos anuncios, AWS ofrece a los clientes aún más rendimiento, opciones e innovación en cada capa de la pila. El impacto combinado de todas las capacidades que ofrecemos en re:Invent marca un hito importante hacia el logro de una meta emocionante y significativa: hacer que la inteligencia artificial generativa sea accesible para clientes de todos los tamaños y habilidades técnicas, para que puedan reinventar y transformar lo posible.

Recursos

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Confrontación de modelos de chat GPT-4 vs GPT-3.5 vs LLaMA-2 en un debate simulado - Parte 1

Con Meta revelando recientemente planes para construir un modelo de chat que competirá con GPT-4, y el lanzamiento de...

Inteligencia Artificial

Robot Blando Camina al Inflarse Repetidamente

Investigadores de la Universidad de Cornell y del Instituto Tecnológico de Israel, Technion, han diseñado un robot cu...

Ciencia de Datos

Investigadores enseñan a una IA a escribir mejores leyendas de gráficos

Un nuevo conjunto de datos puede ayudar a los científicos a desarrollar sistemas automáticos que generen leyendas más...

Aprendizaje Automático

CEO de NVIDIA Los creadores serán potenciados por la IA generativa.

La inteligencia artificial generativa “potenciará” a los creadores en todas las industrias y tipos de con...

Inteligencia Artificial

Tencent AI Lab presenta GPT4Video un modelo de lenguaje grande multimodal unificado para la comprensión de instrucciones y la generación consciente de seguridad.

El problema de comprensión y generación de videos ha sido abordado por investigadores del Laboratorio de IA de Tencen...