Anunciando nuevas herramientas para ayudar a cada negocio a aprovechar la IA generativa

Presentando innovadoras herramientas para optimizar la IA generativa en cada negocio

Desde startups hasta empresas, organizaciones de todos los tamaños están empezando a utilizar la IA generativa. Quieren aprovechar la IA generativa y convertir el impulso de las versiones beta, prototipos y demostraciones en ganancias e innovaciones productivas en el mundo real. Pero ¿qué necesitan las organizaciones para incorporar la IA generativa en la empresa y hacerla real? Cuando hablamos con los clientes, nos dicen que necesitan seguridad y privacidad, escala y rendimiento económico, y, lo más importante, tecnología relevante para su negocio. Nos entusiasma anunciar hoy nuevas capacidades y servicios que permitirán a las organizaciones, tanto grandes como pequeñas, utilizar la IA generativa de formas creativas, construyendo nuevas aplicaciones y mejorando la forma en que trabajan. En AWS, nos enfocamos intensamente en ayudar a nuestros clientes de varias formas:

  • Haciendo más fácil construir aplicaciones de IA generativa con seguridad y privacidad incorporadas
  • Centrándonos en la infraestructura más eficiente y económica para IA generativa, para que puedas entrenar tus propios modelos y ejecutar inferencias a gran escala
  • Proporcionando aplicaciones impulsadas por IA generativa para empresas, para transformar cómo se realiza el trabajo
  • Permitiendo que los datos sean tu diferenciador, para personalizar los modelos de base (MB) y convertirlos en expertos en tu negocio, tus datos y tu empresa

Para ayudar a una amplia gama de organizaciones a crear experiencias diferenciadas de IA generativa, AWS ha estado trabajando codo a codo con nuestros clientes, incluyendo a BBVA, Thomson Reuters, United Airlines, Philips y LexisNexis Legal & Professional. Y con las nuevas capacidades lanzadas hoy, esperamos una mayor productividad, un mayor compromiso con los clientes y experiencias más personalizadas que transformarán la forma en que las empresas realizan su trabajo.

Anunciamos la disponibilidad general de Amazon Bedrock, la manera más fácil de construir aplicaciones de IA generativa con seguridad y privacidad incorporadas

Los clientes están emocionados y optimistas sobre el valor que la IA generativa puede traer a la empresa. Están profundizando en la tecnología para aprender los pasos que necesitan tomar para construir un sistema de IA generativa en producción. Aunque los recientes avances en IA generativa han captado una amplia atención, muchas empresas no han podido participar en esta transformación. Los clientes nos dicen que necesitan modelos para elegir, garantías de seguridad y privacidad, un enfoque basado en los datos, formas rentables de ejecutar modelos y capacidades como la ingeniería de prompts, la generación aumentada con recuperación (RAG), agentes y más para crear aplicaciones personalizadas. Es por eso que el 13 de abril de 2023, anunciamos Amazon Bedrock, la manera más fácil de construir y escalar aplicaciones de IA generativa con modelos de base. Amazon Bedrock es un servicio completamente gestionado que ofrece una selección de modelos de base de alto rendimiento de proveedores líderes como AI21 Labs, Anthropic, Cohere, Meta, Stability AI y Amazon, junto con un amplio conjunto de capacidades que los clientes necesitan para construir aplicaciones de IA generativa, simplificando el desarrollo al mismo tiempo que se mantiene la privacidad y la seguridad. Además, como parte de una colaboración estratégica anunciada recientemente, todos los futuros MB de Anthropic estarán disponibles dentro de Amazon Bedrock con acceso anticipado a características exclusivas para la personalización de modelos y capacidades de ajuste fino.

Desde abril, hemos visto de primera mano cómo startups como Coda, Hurone AI y Nexxiot; grandes empresas como adidas, GoDaddy, Clariant y Broadridge; y socios como Accenture, BCG, Leidos y Mission Cloud ya están utilizando Amazon Bedrock para construir de forma segura aplicaciones de IA generativa en diferentes industrias. Los proveedores de software independientes (ISVs) como Salesforce ahora se integran de forma segura con Amazon Bedrock para permitir a sus clientes potenciar aplicaciones de IA generativa. Los clientes están aplicando la IA generativa a nuevos casos de uso; por ejemplo, Lonely Planet, una destacada empresa de medios de viaje, trabajó con nuestro Centro de Innovación de IA Generativa para introducir una plataforma de IA escalable que organiza el contenido del libro en minutos para ofrecer recomendaciones de viaje coherentes y altamente precisas, reduciendo los costos de generación de itinerarios en casi un 80%. Y desde entonces, hemos seguido añadiendo nuevas capacidades, como los agentes para Amazon Bedrock, así como soporte para nuevos modelos, como Cohere y los últimos modelos de Anthropic, para ofrecer a nuestros clientes más opciones y facilitar la creación de aplicaciones basadas en IA generativa. Los agentes para Bedrock son un cambio de juego, permitiendo a los LLM completar tareas complejas basadas en tus propios datos y API, de forma privada, segura y con configuración en minutos (sin necesidad de entrenamiento o ajuste fino).

Hoy estamos emocionados de compartir nuevas noticias que facilitan llevar la IA generativa a tu organización:

  • Disponibilidad general de Amazon Bedrock para ayudar a más clientes a construir y escalar aplicaciones de IA generativa
  • Amplia selección de modelos con Llama 2 (disponible en las próximas semanas) y Amazon Titan Embeddings que ofrecen a los clientes una mayor elección y flexibilidad para encontrar el modelo adecuado para cada caso de uso y potenciar RAG para obtener mejores resultados
  • Amazon Bedrock es un servicio elegible para HIPAA y se puede utilizar en cumplimiento con GDPR, lo que permite a más clientes beneficiarse de la IA generativa
  • Throughput provisionado para asegurar una experiencia de usuario consistente incluso durante períodos de tráfico máximo

Con la disponibilidad general de Amazon Bedrock, más clientes tendrán acceso a las amplias capacidades de Bedrock. Los clientes pueden experimentar fácilmente con una variedad de FM principales, personalizarlos de forma privada con sus datos utilizando técnicas como el ajuste fino y RAG, y crear agentes gestionados que ejecutan tareas empresariales complejas, desde reservar viajes y procesar reclamaciones de seguros hasta crear campañas publicitarias y gestionar inventarios, todo sin escribir ningún código. Dado que Amazon Bedrock es serverless, los clientes no tienen que gestionar ninguna infraestructura, y pueden integrar y implementar de manera segura las capacidades de IA generativa en sus aplicaciones utilizando los servicios de AWS con los que ya están familiarizados.

En segundo lugar, la elección del modelo ha sido un pilar fundamental de lo que hace que Amazon Bedrock sea un servicio único y diferenciado para nuestros clientes. En esta etapa temprana de la adopción de la IA generativa, no hay un solo modelo que desbloquee todo el valor de la IA generativa, y los clientes necesitan la capacidad de trabajar con una variedad de modelos de alto rendimiento. Nos complace anunciar la disponibilidad general de Amazon Titan Embeddings y, en las próximas semanas, la disponibilidad de Llama 2, el modelo de lenguaje grande de próxima generación de Meta (LLM), que se une a los proveedores de modelos existentes AI21 Labs, Anthropic, Cohere, Stability AI y Amazon para ampliar aún más la elección y flexibilidad para los clientes. Amazon Bedrock es el primer servicio de IA generativa completamente gestionado que ofrece Llama 2, el LLM de próxima generación de Meta, a través de una API gestionada. Los modelos de Llama 2 tienen mejoras significativas en comparación con los modelos originales de Llama, incluyendo que están entrenados con un 40% más de datos y tienen una longitud de contexto de 4.000 tokens para trabajar con documentos más grandes. Optimizados para proporcionar una respuesta rápida en la infraestructura de AWS, los modelos de Llama 2 disponibles a través de Amazon Bedrock son ideales para casos de uso de diálogo. Los clientes ahora pueden desarrollar aplicaciones de IA generativa impulsadas por modelos de parámetros Llama 2 13B y 70B, sin necesidad de configurar ni administrar ninguna infraestructura.

Amazon Titan FMs son una familia de modelos creados y preentrenados por AWS en conjuntos de datos grandes, lo que los hace capacidades potentes y de propósito general construidos para admitir una variedad de casos de uso. El primero de estos modelos disponible para los clientes, Amazon Titan Embeddings, es un LLM que convierte el texto en representaciones numéricas (conocidas como embeddings) para potenciar casos de uso RAG. Los FMs son adecuados para una amplia variedad de tareas, pero solo pueden responder a preguntas basadas en los aprendizajes de los datos de entrenamiento y la información contextual en una solicitud, lo que limita su efectividad cuando las respuestas requieren conocimientos o datos propietarios oportunos. Los datos marcan la diferencia entre una aplicación general de IA generativa y una que realmente conoce tu negocio y a tus clientes. Para complementar las respuestas de FM con datos adicionales, muchas organizaciones recurren a RAG, una técnica popular de personalización de modelos en la que un FM se conecta a una fuente de conocimiento a la que puede hacer referencia para complementar sus respuestas. Para comenzar con RAG, los clientes primero necesitan acceso a un modelo de embeddings para convertir sus datos en vectores que permitan al FM comprender más fácilmente el significado semántico y las relaciones entre los datos. Construir un modelo de embeddings requiere grandes cantidades de datos, recursos y experiencia en ML, lo que hace que RAG sea inalcanzable para muchas organizaciones. Amazon Titan Embeddings facilita a los clientes comenzar con RAG para ampliar el poder de cualquier FM utilizando sus datos propietarios. Amazon Titan Embeddings admite más de 25 idiomas y una longitud de contexto de hasta 8,192 tokens, lo que lo hace adecuado para trabajar con palabras individuales, frases o documentos completos según el caso de uso del cliente. El modelo devuelve vectores de salida de 1,536 dimensiones, lo que le confiere un alto grado de precisión, al mismo tiempo que optimiza los resultados para una latencia baja y coste efectivo. Con nuevos modelos y capacidades, es fácil utilizar los datos de tu organización como un activo estratégico para personalizar modelos fundamentales y crear experiencias más diferenciadas.

En tercer lugar, debido a que los datos que los clientes desean utilizar para la personalización son propiedad intelectual tan valiosa, necesitan que permanezcan seguros y privados. Con seguridad y privacidad incorporadas desde el primer día, los clientes de Amazon Bedrock pueden confiar en que sus datos están protegidos. Ninguno de los datos de los clientes se utiliza para entrenar los FM base originales. Todos los datos están encriptados en reposo y en tránsito. Y puedes esperar los mismos controles de acceso de AWS que tienes con cualquier otro servicio de AWS. Hoy, nos emociona construir sobre esta base e introducir nuevas capacidades de seguridad y gobernabilidad: Amazon Bedrock ahora es un servicio elegible para HIPAA y se puede utilizar en cumplimiento con GDPR, lo que permite a más clientes beneficiarse de la IA generativa. Las nuevas capacidades de gobernabilidad incluyen la integración con Amazon CloudWatch para rastrear métricas de uso y construir paneles personalizados y la integración con AWS CloudTrail para supervisar la actividad de la API y solucionar problemas. Estas nuevas capacidades de gobernabilidad y seguridad ayudan a las organizaciones a desbloquear el potencial de la IA generativa, incluso en industrias altamente reguladas, y garantizan que los datos permanezcan protegidos.

Finalmente, ciertos períodos del año, como las vacaciones, son críticos para que los clientes se aseguren de que sus usuarios puedan obtener un servicio ininterrumpido de aplicaciones alimentadas por inteligencia artificial generativa. Durante estos períodos, los clientes desean asegurarse de que su servicio esté disponible para todos sus clientes, independientemente de la demanda. Amazon Bedrock ahora permite a los clientes reservar capacidad (en términos de tokens procesados por minuto) para mantener una experiencia de usuario consistente incluso durante los momentos de mayor tráfico.

Juntos, las nuevas capacidades y modelos que hoy anunciamos para Amazon Bedrock acelerarán la forma en que las empresas pueden construir aplicaciones más personalizadas y mejorar la productividad de los empleados. En conjunción con nuestras inversiones continuas en infraestructura de aprendizaje automático, Amazon Bedrock es el mejor lugar para que los clientes construyan y escalen aplicaciones de inteligencia artificial generativa.

Para ayudar a los clientes a comenzar rápidamente con estas nuevas funciones, estamos agregando un nuevo curso de entrenamiento de inteligencia artificial generativa para Amazon Bedrock a nuestra colección de cursos de capacitación digitales a pedido. Amazon Bedrock – Empezando es un curso digital gratuito y autoguiado que presenta a los estudiantes el servicio. Este curso de 60 minutos presentará a los desarrolladores y al público técnico los beneficios, características, casos de uso y conceptos técnicos de Amazon Bedrock.

Anunciando la capacidad de personalización de Amazon CodeWhisperer para generar recomendaciones de código más relevantes informadas por la base de código de su organización

En AWS, estamos construyendo nuevas aplicaciones poderosas que transforman cómo nuestros clientes realizan su trabajo con inteligencia artificial generativa. En abril de 2023, anunciamos la disponibilidad general de Amazon CodeWhisperer, un compañero de codificación de IA que ayuda a los desarrolladores a construir aplicaciones de software más rápidamente proporcionando sugerencias de código en 15 idiomas, basadas en comentarios en lenguaje natural y código en el entorno de desarrollo integrado (IDE) del desarrollador. CodeWhisperer ha sido entrenado con miles de millones de líneas de código disponibles públicamente para ayudar a los desarrolladores a ser más productivos en una amplia gama de tareas. Hemos entrenado especialmente a CodeWhisperer en código de alta calidad de Amazon, incluidas las APIs y las mejores prácticas de AWS, para ayudar a los desarrolladores a generar aún más rápido y con mayor precisión código que interactúe con servicios de AWS como Amazon Elastic Compute Cloud (Amazon EC2), Amazon Simple Storage Service (Amazon S3), y AWS Lambda. Clientes como Accenture, Persistent y Bundesliga han estado utilizando CodeWhisperer para mejorar la productividad de sus desarrolladores.

Muchos clientes también desean que CodeWhisperer incluya sus propias APIs internas, bibliotecas, mejores prácticas y patrones arquitectónicos en sus sugerencias, para acelerar aún más el desarrollo. Actualmente, los compañeros de codificación de IA no pueden incluir estas APIs en sus sugerencias de código ya que generalmente están entrenados en código disponible públicamente y no conocen el código interno de una empresa. Por ejemplo, para construir una funcionalidad para un sitio web de comercio electrónico que lista productos en un carrito de compras, los desarrolladores deben encontrar y comprender el código interno existente, como la API que proporciona la descripción de los productos, para mostrar la descripción en el carrito de compras. Sin un compañero de codificación capaz de sugerir el código interno correcto, los desarrolladores deben pasar horas buscando en su código interno y la documentación para completar su trabajo. Incluso después de encontrar los recursos adecuados, deben dedicar más tiempo a revisar el código para asegurarse de que cumple con las mejores prácticas de la empresa.

Hoy, nos complace anunciar una nueva capacidad de personalización de Amazon CodeWhisperer, que permite a CodeWhisperer generar sugerencias aún mejores que antes, ya que ahora puede incluir sus APIs internas, bibliotecas, mejores prácticas y patrones arquitectónicos. Esta capacidad utiliza las últimas técnicas de personalización de modelos y contexto y estará disponible próximamente como parte de un nuevo nivel empresarial de CodeWhisperer. Con esta capacidad, puede conectar de forma segura sus repositorios privados a CodeWhisperer y, con unos pocos clics, personalizar CodeWhisperer para generar recomendaciones en tiempo real que incluyan su base de código interna. Por ejemplo, con una personalización de CodeWhisperer, un desarrollador que trabaja en una empresa de delivery de comida puede solicitar a CodeWhisperer que proporcione recomendaciones que incluyan código específico relacionado con los servicios internos de la empresa, como “Procesar una lista de entregas de comida no asignadas alrededor de la ubicación actual del conductor”. Anteriormente, CodeWhisperer no conocería las APIs internas correctas para “entregas de comida no asignadas” o “ubicación actual del conductor” porque esta información no está disponible públicamente. Ahora, una vez personalizado en la base de código interna de la empresa, CodeWhisperer comprende la intención, determina cuáles APIs internas y públicas son las más adecuadas para la tarea y genera recomendaciones de código para el desarrollador. La capacidad de personalización de CodeWhisperer puede ahorrar a los desarrolladores horas de búsqueda y modificación de código escasamente documentado, y ayuda a los nuevos desarrolladores de la empresa a integrarse más rápido.

En el siguiente ejemplo, después de crear una personalización privada, los desarrolladores de AnyCompany (una empresa de entrega de alimentos) reciben recomendaciones de código de CodeWhisperer que incluyen sus API y bibliotecas internas.

Realizamos un estudio reciente con Persistent, una empresa global de servicios y soluciones que ofrece servicios de ingeniería digital y modernización empresarial a clientes, para medir los beneficios de productividad de la capacidad de personalización de CodeWhisperer. Persistent encontró que los desarrolladores que utilizan la capacidad de personalización pueden completar sus tareas de codificación hasta un 28% más rápido, en promedio, que los desarrolladores que utilizan CodeWhisperer estándar.

Diseñamos esta capacidad de personalización con la privacidad y la seguridad como prioridad. Los administradores pueden gestionar fácilmente el acceso a una personalización privada desde la Consola de administración de AWS, para que solo los desarrolladores específicos tengan acceso. Los administradores también pueden asegurarse de que solo los repositorios que cumplan con sus estándares sean elegibles para usar en una personalización de CodeWhisperer. El uso de repositorios de alta calidad ayuda a CodeWhisperer a hacer sugerencias que promueven las mejores prácticas de seguridad y calidad de código. Cada personalización está completamente aislada de otros clientes y ninguna de las personalizaciones construidas con esta nueva capacidad se utilizará para entrenar el FM subyacente de CodeWhisperer, protegiendo la propiedad intelectual valiosa de los clientes.

Anunciamos la vista previa de las capacidades de autoría de generación de BI en Amazon QuickSight para ayudar a los analistas de negocios a crear y personalizar fácilmente visualizaciones usando comandos de lenguaje natural

AWS ha estado en una misión para democratizar el acceso a información para todos los usuarios de la organización. Amazon QuickSight, nuestro servicio de inteligencia empresarial (BI) unificado construido para la nube, permite compartir información entre todos los usuarios de la organización. Con QuickSight, hemos estado utilizando modelos generativos para impulsar Amazon QuickSight Q, que permite a cualquier usuario hacer preguntas a sus datos utilizando lenguaje natural, sin tener que escribir consultas SQL o aprender una herramienta de BI, desde 2020. En julio de 2023, anunciamos que estamos ampliando la innovación temprana en QuickSight Q con las nuevas capacidades de LLM para proporcionar capacidades generativas de BI en QuickSight. Los clientes actuales de QuickSight, como BMW Group y Traeger Grills, están ansiosos por aumentar aún más la productividad de sus analistas utilizando la experiencia de autoría de BI generativa.

Hoy nos complace ofrecer estas capacidades de LLM en vista previa con capacidades de generación de paneles de BI para analistas de negocios. Las nuevas capacidades de autoría de generación de BI amplían la capacidad de consulta en lenguaje natural de QuickSight Q más allá de responder preguntas bien estructuradas (como “¿cuáles son los 10 productos más vendidos en California?”) para ayudar a los analistas a crear rápidamente visualizaciones personalizables a partir de fragmentos de preguntas (como “los 10 productos principales”), aclarar la intención de una consulta haciendo preguntas de seguimiento, refinar visualizaciones y completar cálculos complejos. Los analistas de negocios simplemente describen el resultado deseado y QuickSight genera visualizaciones convincentes que se pueden agregar fácilmente a un panel o informe con un solo clic. QuickSight Q también ofrece preguntas relacionadas para ayudar a los analistas a aclarar casos ambiguos cuando varios campos de datos coinciden con su consulta. Una vez que el analista tiene la visualización inicial, puede agregar cálculos complejos, cambiar tipos de gráficos y perfeccionar las visualizaciones utilizando indicaciones del lenguaje natural. Las nuevas capacidades de autoría de generación de BI en QuickSight Q permiten a los analistas de negocios crear visualizaciones convincentes de manera rápida y sencilla y reducir el tiempo para proporcionar las ideas necesarias para tomar decisiones basadas en datos a gran escala.

Creating visuals using Generative BI capabilities in Amazon QuickSight

Creación de visualizaciones mediante las capacidades de generación de BI en Amazon QuickSight

Herramientas y capacidades de generación de IA para cada negocio

Los anuncios de hoy abren la inteligencia artificial generativa a cualquier cliente. Con seguridad y privacidad de calidad empresarial, la elección de los principales FMs, un enfoque basado en datos y una infraestructura altamente potente y rentable, las organizaciones confían en AWS para impulsar sus innovaciones con soluciones de inteligencia artificial generativa en cada capa de la plataforma. Hemos visto innovaciones emocionantes desde Bridgewater Associates hasta Omnicom hasta Asurion y Rocket Mortgage, y con estos nuevos anuncios, esperamos nuevos casos de uso y aplicaciones de la tecnología para aumentar la productividad. Esto es solo el comienzo: en toda la plataforma tecnológica, estamos innovando con nuevos servicios y capacidades diseñados para su organización, para ayudar a abordar algunos de los desafíos más importantes y cambiar la forma en que trabajamos.

Recursos

Para obtener más información, consulte los siguientes recursos:

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Investigación

Una forma más efectiva de entrenar máquinas para situaciones inciertas del mundo real.

Los investigadores desarrollaron un algoritmo que decide cuándo una máquina estudiante debe seguir a su profesor y cu...

Inteligencia Artificial

Explorando NLP - Comenzando con NLP (Paso #1)

Este semestre, tengo NLP como parte de mi plan de estudios. ¡YAY! Como parte de una próxima evaluación para la materi...

Inteligencia Artificial

Nueva herramienta para construir y reparar carreteras y puentes Inteligencia Artificial

En Pennsylvania y en otros lugares, se está aplicando la inteligencia artificial a la infraestructura envejecida del ...