Las mejores ofertas con descuentos de móviles actualizados cada 24 horas en Amazon
NVIDIA presenta el GB200 y el GX200: las nuevas bestias para HPC e IA
NVIDIA revela la hoja de ruta del centro de datos 2024-2025: GB200 y GX200 confirmados
NVIDIA, el líder mundial en el mercado de las tarjetas gráficas, ha anunciado su hoja de ruta para el segmento de los centros de datos para los años 2024 y 2025. La compañía ha revelado los nombres y algunas características de sus próximos productos, que prometen ofrecer un rendimiento y una eficiencia sin precedentes en el campo de la computación de alto rendimiento (HPC), la inteligencia artificial (IA) y el aprendizaje automático (ML).
GB200: la nueva generación de GPU para HPC
El primer producto que NVIDIA ha presentado es el GB200, que será la sucesora de la actual GPU A100, basada en la arquitectura Ampere. El GB200 utilizará la nueva arquitectura Grace, que se espera que se lance en 2024. Grace es una arquitectura diseñada específicamente para las aplicaciones de HPC, que se caracteriza por tener una interconexión NVLink de alta velocidad, una memoria HBM3 de gran capacidad y ancho de banda y una compatibilidad con el estándar PCIe 5.0.
El GB200 tendrá un tamaño de chip de 1.500 mm2, lo que supone un aumento del 50% respecto al A100, que tiene un tamaño de 826 mm2. Esto le permitirá albergar más núcleos CUDA, tensores y RT, así como más unidades de procesamiento aritmético (ALU). Se estima que el GB200 tendrá una potencia de cálculo de 400 TFLOPS en FP32 y 800 TFLOPS en FP16, lo que supone un incremento del 100% y del 150% respectivamente respecto al A100. Además, el GB200 tendrá una memoria HBM3 de 128 GB con un ancho de banda de 2 TB/s, lo que supone un aumento del 60% y del 100% respectivamente respecto al A100.
El GB200 será compatible con el estándar PCIe 5.0, que ofrece una velocidad de transferencia de datos de hasta 64 GB/s por ranura, lo que supone un aumento del 100% respecto al PCIe 4.0. Esto permitirá una mayor comunicación entre las GPU y los procesadores, así como entre las GPU y los dispositivos periféricos. Además, el GB200 contará con una interconexión NVLink mejorada, que ofrecerá una velocidad de transferencia de datos de hasta 600 GB/s por enlace, lo que supone un aumento del 50% respecto al NVLink actual. Esto permitirá una mayor escalabilidad y cooperación entre las GPU en sistemas multi-GPU.
GX200: la nueva generación de aceleradores para IA y ML
El segundo producto que NVIDIA ha anunciado es el GX200, que será el sucesor del actual acelerador DPU BlueField-2, basado en la arquitectura DOCA. El GX200 utilizará la nueva arquitectura Hopper, que se espera que se lance en 2025. Hopper es una arquitectura diseñada específicamente para las aplicaciones de IA y ML, que se caracteriza por tener una estructura multi-chip, una integración con la GPU y una compatibilidad con el estándar CXL.
El GX200 tendrá una estructura multi-chip, lo que significa que estará compuesto por varios chips más pequeños conectados entre sí mediante una interconexión interna. Esto permitirá aumentar el número de núcleos ARM, núcleos tensoriales y núcleos criptográficos, así como reducir el consumo energético y mejorar la eficiencia térmica. Se estima que el GX200 tendrá una potencia de cálculo de 2 PFLOPS en INT8 y 4 PFLOPS en bfloat16, lo que supone un incremento del 400% y del 800% respectivamente respecto al BlueField-2. Además, el GX200 tendrá una memoria LPDDR5X de 64 GB con un ancho de banda de 1 TB/s, lo que supone un aumento del 100% y del 200% respectivamente respecto al BlueField-2.
El GX200 será compatible con el estándar CXL, que ofrece una velocidad de transferencia de datos de hasta 64 GB/s por ranura, lo que supone un aumento del 100% respecto al PCIe 4.0. Esto permitirá una mayor comunicación entre los aceleradores y los procesadores, así como entre los aceleradores y los dispositivos periféricos. Además, el GX200 contará con una integración con la GPU, lo que significa que podrá compartir la memoria y los recursos de cómputo con la GPU a través de una interconexión directa. Esto permitirá una mayor sinergia y cooperación entre los aceleradores y las GPU en sistemas híbridos.
Conclusión
NVIDIA ha revelado su hoja de ruta para el segmento de los centros de datos para los años 2024 y 2025, mostrando su ambición y su liderazgo en el campo de la computación de alto rendimiento, la inteligencia artificial y el aprendizaje automático. La compañía ha anunciado dos productos clave: el GB200, que será la nueva generación de GPU para HPC, y el GX200, que será la nueva generación de aceleradores para IA y ML. Ambos productos prometen ofrecer un rendimiento y una eficiencia sin precedentes, gracias a las nuevas arquitecturas Grace y Hopper, que incorporan innovaciones como la interconexión NVLink, la memoria HBM3, el estándar PCIe 5.0, la estructura multi-chip, la integración con la GPU y el estándar CXL.
0 comentarios