Aceptando la Transformación AWS y NVIDIA avanzan en IA generativa e innovación en la nube

Aceptando la Transformación AWS y NVIDIA impulsan la IA generativa e innovación en la nube

Amazon Web Services y NVIDIA llevarán las últimas tecnologías de IA generativa a empresas de todo el mundo.

Combinando IA y computación en la nube, el fundador y CEO de NVIDIA, Jensen Huang, se unió a Adam Selipsky, CEO de AWS, el martes en el escenario de AWS re:Invent 2023 en el Centro de Exposiciones Venetian de Las Vegas.

Selipsky dijo que estaba “emocionado” de anunciar la expansión de la asociación entre AWS y NVIDIA con más ofertas que ofrecerán gráficos avanzados, aprendizaje automático e infraestructura de IA generativa.

Anunciaron que AWS será el primer proveedor de servicios en la nube en adoptar el último Superchip NVL32 GH200 de NVIDIA Grace Hopper con la nueva tecnología NVLink de múltiples nodos, que AWS está trayendo NVIDIA DGX Cloud a AWS y que AWS ha integrado algunas de las bibliotecas de software más populares de NVIDIA.

Huang comenzó la conversación destacando la integración de las principales bibliotecas de NVIDIA con AWS, que abarcan desde NVIDIA AI Enterprise hasta cuQuantum y BioNeMo, atendiendo a dominios como el procesamiento de datos, la computación cuántica y la biología digital.

La asociación abre AWS a millones de desarrolladores y a las casi 40,000 empresas que están utilizando estas bibliotecas, dijo Huang, añadiendo que es genial ver cómo AWS amplía sus ofertas de instancias de la nube para incluir las nuevas GPU L4, L40S y, próximamente, H200 de NVIDIA.

Selipsky luego presentó el debut de AWS del NVIDIA GH200 Grace Hopper Superchip, un avance significativo en la computación en la nube, e instó a Huang a dar más detalles.

“Grace Hopper, que es GH200, conecta dos procesadores revolucionarios de una manera realmente única”, dijo Huang. Explicó que el GH200 conecta la CPU Grace Arm de NVIDIA con su GPU H200 utilizando una interconexión de chip a chip llamada NVLink, a una velocidad impresionante de un terabyte por segundo.

Cada procesador tiene acceso directo a la memoria de alto rendimiento HBM y a la eficiente memoria LPDDR5X. Esta configuración resulta en 4 petaflops de potencia de procesamiento y 600 GB de memoria para cada superchip.

AWS y NVIDIA conectan 32 Superchips Grace Hopper en cada rack utilizando un nuevo switch NVLink. Cada nodo de 32 GH200 NVLink conectado puede ser una única instancia de Amazon EC2. Cuando se integran con la red AWS Nitro y EFA, los clientes pueden conectar instancias GH200 NVL32 para escalar a miles de Superchips GH200.

“Con AWS Nitro, eso se convierte básicamente en una instancia virtual de GPU gigante”, dijo Huang.

La combinación de la experiencia de AWS en computación en la nube altamente escalable y la innovación de NVIDIA con Grace Hopper hará de esto una plataforma increíble que ofrece el máximo rendimiento para cargas de trabajo complejas de IA generativa, dijo Huang.

“Es genial ver la infraestructura, pero se extiende al software, los servicios y todos los demás flujos de trabajo que tienen”, dijo Selipsky, presentando NVIDIA DGX Cloud en AWS.

Esta asociación traerá el primer supercomputador de IA DGX Cloud alimentado por Superchips GH200, demostrando el poder de la infraestructura en la nube de AWS y la experiencia de IA de NVIDIA.

A continuación, Huang anunció que este nuevo diseño de supercomputadora DGX Cloud en AWS, con el nombre en clave Proyecto Ceiba, también servirá como el nuevo supercomputador de IA de NVIDIA para su propia investigación y desarrollo de IA.

Nombrado en honor a la majestuosa Ceiba amazónica, el clúster de Proyecto Ceiba DGX Cloud incorpora 16,384 Superchips GH200 para alcanzar una potencia de procesamiento de IA de 65 exaflops, dijo Huang.

Ceiba será el primer supercomputador de IA GH200 NVL32 construido en el mundo y el más nuevo supercomputador de IA en la nube de NVIDIA DGX, dijo Huang.

Huang describió al supercomputador de IA Proyecto Ceiba como “absolutamente increíble”, diciendo que podrá reducir a la mitad el tiempo de entrenamiento de los modelos de lenguaje más grandes.

Los equipos de ingeniería de IA de NVIDIA utilizarán este nuevo supercomputador en DGX Cloud para avanzar en la IA para gráficos, LLM, generación de imagen/video/3D, biología digital, robótica, conducción autónoma, predicción del clima de la Tierra-2 y más, dijo Huang.

“DGX es la fábrica de inteligencia artificial en la nube de NVIDIA”, dijo Huang, señalando que ahora la IA es clave para realizar el trabajo de NVIDIA en todo, desde gráficos por computadora hasta la creación de modelos de biología digital, robótica, simulación y modelado climático.

“DGX Cloud también es nuestra fábrica de IA para trabajar con clientes empresariales y construir modelos de IA personalizados”, dijo Huang. “Ellos aportan datos y experiencia en sus dominios; nosotros aportamos tecnología de IA e infraestructura”.

Además, Huang también anunció que AWS lanzará cuatro instancias de Amazon EC2 basadas en las GPUs NVIDIA GH200 NVL, H200, L40S y L4, que saldrán al mercado a principios del próximo año.

Selipsky cerró la conversación anunciando que las instancias basadas en GH200 y DGX Cloud estarán disponibles en AWS el próximo año. Puedes ver la discusión y la presentación completa de Selipsky en el canal de YouTube de AWS.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Investigadores de Microsoft Research y Georgia Tech revelan los límites estadísticos de las alucinaciones en los modelos de lenguaje

Un problema clave que ha surgido recientemente en los Modelos de Lenguaje es la alta tasa a la que proporcionan infor...

Inteligencia Artificial

¿Puede la IA realmente restaurar detalles faciales de imágenes de baja calidad? Conozca DAEFR un marco de doble rama para mejorar la calidad

En el campo del procesamiento de imágenes, recuperar información de alta definición de fotografías faciales de mala c...

Inteligencia Artificial

Automatiza la creación de subtítulos y la búsqueda de imágenes a escala empresarial utilizando la inteligencia artificial generativa y Amazon Kendra

Amazon Kendra es un servicio de búsqueda inteligente impulsado por aprendizaje automático (ML). Amazon Kendra redefin...

Investigación

El sistema de IA puede generar proteínas novedosas que cumplan con los objetivos de diseño estructural.

Estas proteínas ajustables podrían ser utilizadas para crear nuevos materiales con propiedades mecánicas específicas,...

Investigación

NYU y NVIDIA colaboran en un gran modelo de lenguaje para predecir la readmisión de pacientes.

Darse de alta en el hospital es un hito importante para los pacientes, pero a veces no es el final de su camino hacia...