La IA y la RA están impulsando la demanda de datos el hardware de código abierto está a la altura del desafío

IA y RA impulsan demanda de datos, hardware de código abierto responde al desafío.

Los datos son la fuerza vital de la economía digital, y a medida que surgen y evolucionan nuevas tecnologías, la demanda de velocidades de transferencia de datos más rápidas, latencias más bajas y mayor potencia de cálculo en los centros de datos está aumentando de forma exponencial. Las nuevas tecnologías están llevando los límites de la transmisión y procesamiento de datos, y adoptar tecnologías de código abierto puede ayudar a los operadores de centros de datos a maximizar sus operaciones actuales y prepararse para el futuro. A continuación se presentan algunos ejemplos de tecnologías que impulsan la demanda de alta potencia de cálculo y formas en que la tecnología de código abierto, las comunidades y los estándares ayudan a abordar esta demanda a gran escala de manera sostenible.

Inteligencia Artificial y Aprendizaje Automático

Las tecnologías de inteligencia artificial (IA) y aprendizaje automático (AA) están revolucionando diversos campos como el procesamiento de lenguaje natural, la visión por computadora, el reconocimiento de voz, los sistemas de recomendación y los automóviles autónomos. La IA y el AA permiten a las computadoras aprender a partir de datos y realizar tareas que normalmente requieren inteligencia humana.

Sin embargo, la IA y el AA también requieren grandes cantidades de datos y potencia de cálculo para entrenar y ejecutar modelos y algoritmos complejos. Por ejemplo, GPT-3, uno de los modelos de lenguaje natural más avanzados del mundo, tiene 175 mil millones de parámetros y fue entrenado con 45 terabytes de datos de texto. Para procesar conjuntos de datos y modelos de esa escala de manera eficiente, las aplicaciones de IA y AA necesitan sistemas de cómputo de alto rendimiento (HPC) que puedan ofrecer velocidades de transferencia de datos rápidas, latencias bajas y alta potencia de cálculo.

Una de las tendencias emergentes en HPC es utilizar procesadores especializados como las GPUs o TPUs que están optimizados para el procesamiento paralelo y las operaciones matriciales que son comunes en las cargas de trabajo de IA y AA. Por ejemplo, la CPU Grace de NVIDIA es un nuevo procesador diseñado específicamente para aplicaciones de HPC que aprovecha la tecnología de GPU de NVIDIA para ofrecer un rendimiento hasta 10 veces más rápido que las CPU x86 actuales. La CPU Grace también admite interconexiones rápidas como NVLink que permiten velocidades de transferencia de datos rápidas entre las CPUs y las GPUs.

Realidad Aumentada y Realidad Virtual

El Apple Vision Pro causó un gran revuelo durante su presentación. La realidad aumentada (RA) y la realidad virtual (RV) son dos de las tecnologías más inmersivas e interactivas que están transformando diversas industrias como el entretenimiento, la educación, la atención médica y la fabricación. La RA superpone información digital sobre el mundo real, mientras que la RV crea un entorno totalmente simulado que los usuarios pueden experimentar a través de un casco.

Sin embargo, estas tecnologías también plantean desafíos significativos para la transferencia y procesamiento de datos. Debido a su lanzamiento reciente, aún faltan detalles sobre el Apple Vision Pro. Sin embargo, hay otros auriculares de RV disponibles desde hace tiempo, por lo que podemos hacer algunas suposiciones. Por ejemplo, los auriculares de RV como Oculus Quest 2 requieren una conexión de alta velocidad a una PC o un servidor en la nube para transmitir contenido de video y audio de alta calidad, así como datos de seguimiento y entrada desde el auricular y los controladores. La velocidad de bits de video, que es la cantidad de datos transferidos por segundo, depende de la velocidad a la que la GPU pueda codificar la señal en el lado de la PC o el servidor, y de la velocidad a la que el procesador de Quest 2 pueda decodificar la señal en el lado del auricular.

Según Oculus, la velocidad de bits recomendada para la transmisión de RV está entre 150 Mbps y 500 Mbps, dependiendo de la resolución y la velocidad de fotogramas. Esto significa que la transmisión de RV requiere una velocidad de transferencia de datos mucho mayor que otras actividades en línea como la navegación web o la transmisión de música. Además, la transmisión de RV también requiere baja latencia, que es el tiempo que tarda una señal en viajar de un punto a otro. Una alta latencia puede causar una jugabilidad lenta o con saltos, lo que puede arruinar la inmersión y provocar mareos.

La latencia depende de varios factores como la velocidad de la red, la distancia entre los dispositivos y los algoritmos de codificación y decodificación. Según Oculus, la latencia ideal para la transmisión de RV es inferior a 20 milisegundos. Sin embargo, lograr este nivel de rendimiento no es fácil, especialmente en conexiones inalámbricas como Wi-Fi o 5G.

Tecnologías de Código Abierto para la Optimización del Centro de Datos

A medida que las nuevas tecnologías impulsan la demanda de velocidades de transferencia de datos más rápidas, latencias más bajas y mayor potencia de cálculo en los centros de datos, los operadores de centros de datos enfrentan varios desafíos como el aumento del consumo de energía, los nuevos requisitos de refrigeración, la utilización del espacio, los costos operativos y un ritmo rápido de innovación y actualización de hardware. Para abordar estos desafíos, los operadores de centros de datos deben optimizar su infraestructura actual y adoptar nuevos estándares y tecnologías que puedan mejorar su eficiencia y escalabilidad.

Ese es el objetivo del Proyecto Open19, una iniciativa de Alianza de Infraestructura Sostenible y Escalable que ahora forma parte de la Fundación Linux. El Proyecto Open19 es un estándar abierto para hardware de centros de datos que se basa en factores de forma comunes y proporciona una distribución de energía altamente eficiente de próxima generación, componentes reutilizables y oportunidades para interconexiones de alta velocidad emergentes. La misión de SSIA y los estándares abiertos creados a través del Proyecto Open19 están en sintonía con el impulso de la industria hacia la eficiencia, la escalabilidad y la sostenibilidad de la infraestructura que impulsa nuestras vidas digitales y comunidades. El Proyecto Open Compute es otro esfuerzo para soportar eficientemente las crecientes demandas de infraestructura de cómputo. Este proyecto fomenta de manera similar la colaboración impulsada por la comunidad entre socios de la industria para desarrollar soluciones para centros de datos, con un enfoque en tamaños de bastidor de servidor de 21″ que típicamente se utilizan en grandes centros de datos y proveedores de servicios en la nube. El alcance de OCP también se extiende a la instalación del centro de datos, así como a los componentes internos de TI de los servidores.

Conclusión

Las nuevas tecnologías están impulsando la demanda de tasas de transferencia de datos más rápidas, latencias más bajas y mayor potencia de cálculo en los centros de datos, mientras que las comunidades, los gobiernos y las empresas se centran en la gestión de recursos y en las crecientes preocupaciones sobre la sostenibilidad en torno al uso del agua, la gestión de la energía y otros aspectos intensivos en carbono relacionados con la creación, el uso y la implementación de la tecnología. Adoptar tecnologías de código abierto, desarrolladas en foros impulsados por la comunidad como el SSIA y la Fundación Linux, puede ayudar a los operadores de centros de datos a maximizar sus operaciones actuales y prepararse para un futuro más sostenible a medida que satisfacen las demandas de estas emocionantes nuevas aplicaciones.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Meer Pyrus Base Una nueva plataforma de código abierto basada en Python para la simulación bidimensional (2D) de RoboCup Soccer

La robótica, la rama dedicada por completo al campo de la Ingeniería Electrónica e Informática, está ahora conectada ...

Inteligencia Artificial

Científicos simulan la guerra de las hormigas utilizando el juego de ordenador Age of Empires

Científicos utilizaron el videojuego Age of Empires para simular la guerra de hormigas, en un esfuerzo por erradicar ...

Inteligencia Artificial

Mejora el rendimiento de la inferencia para LLMs con los nuevos contenedores de Amazon SageMaker

Hoy, Amazon SageMaker lanza una nueva versión (0.25.0) de los Contenedores de Aprendizaje Profundo (DLC) para Inferen...