Supermicro amplía las soluciones de IA con las próximas NVIDIA HGX H200 y MGX Grace Hopper

Por 15 de noviembre de 2023 noviembre 22nd, 2023 Noticias
Supermicro incrementa sus líneas de productos con 8GPUs, 4GPUs y MGX con soporte para NVIDIA HGX H200 y el superchip Grace Hopper.

Supermicro, fabricante líder en soluciones de IT para inteligencia artificial, nube, almacenamiento y 5G/Edge, está ampliando su catálogo de IA con la próxima plataforma para la nueva NVIDIA HGX H200 construida  con GPU H200 Tensor Core.
Las plataformas de IA líderes en la industria de Supermicro, incluidos los sistemas de GPU universales de 8U y 4U están listas para instalarse en HGX H200 de 8 y 4 GPU, y cuentan con una memoria HBM33 con casi el doble de capacidad y un ancho de banda 1,4 veces mayor en comparación con la NVIDIA H100 Tensor Core.
Además, la cartera más amplia de sistemas Supermicro NVIDIA MGXTM es compatible con el próximo superchip NVIDIA Grace Hopper con memoria HBM3e.
Con un rendimiento, escalabilidad y confiabilidad sin precedentes, las soluciones de IA a escala de rack de Supermicro aceleran el rendimiento de la IA generativa computacionalmente intensiva, la capacitación en modelos de lenguaje grande (LLM) y las aplicaciones HPC, al mismo tiempo que satisfacen las demandas cambiantes de modelos de tamaño creciente.
Utilizando la arquitectura de bloques de construcción, Supermicro puede llevar rápidamente nueva tecnología al mercado, permitiendo a los clientes ser más productivos antes.
MGX

Supermicro también presenta el servidor de mayor densidad de la industria con sistemas NVIDIA HGX H100 de 8 GPU en un sistema 4U refrigerado por líquido, que utiliza la última solución de refrigeración líquida de Supermicro.

El servidor GPU de alto rendimiento más compacto de la industria permite a los operadores de centros de datos reducir el espacio y los costos de energía, al tiempo que ofrece la capacidad de entrenamiento de IA de mayor rendimiento disponible en un solo rack. Con los sistemas GPU de mayor densidad, las organizaciones pueden reducir su TCO aprovechando soluciones de refrigeración líquida de última generación.

Supermicro se asocia con NVIDIA para diseñar los sistemas más avanzados para el entrenamiento de IA y aplicaciones HPC“, dijo Charles Liang, presidente y director ejecutivo de Supermicro. “Nuestra arquitectura de bloques de construcción nos permite ser los primeros en comercializar la última tecnología, lo que permite a los clientes implementar IA generativa más rápido que nunca. Podemos entregar estos nuevos sistemas a los clientes más rápido con nuestras instalaciones de fabricación en todo el mundo. Los nuevos sistemas, que utilizan la GPU NVIDIA H200 con interconexiones GPU-GPU de alta velocidad NVIDIA NVLink y NVSwitch a 900GB/s, ahora proporcionan hasta 1,1 TB de memoria HBM3e de alto ancho de banda por nodo en nuestras soluciones de IA a escala de rack para ofrecer el mayor rendimiento de paralelismo de modelos para los LLM y la IA generativa actuales. También estamos entusiasmados de ofrecer el servidor con refrigeración líquida NVIDIA HGX 8-GPU más compacto del mundo, que duplica la densidad de nuestras soluciones de IA a escala de rack y reduce los costos de energía para lograr una informática ecológica para el centro de datos acelerado de hoy”.

Ver servidores GPU en Flytech

Supermicro diseña y fabrica una amplia cartera de servidores de IA con diferentes factores de forma. Los populares sistemas de GPU universales 8U y 4U que cuentan con GPU NVIDIA HGX H100 de cuatro y ocho vías ahora están listos para que las nuevas GPU H200 entrenen modelos de lenguaje aún más grandes en menos tiempo. Cada GPU NVIDIA H200 contiene 141 GB de memoria con un ancho de banda de 4,8 TB/s.

“Los próximos diseños de servidores de Supermicro que utilizan NVIDIA HGX H200 ayudarán a acelerar las cargas de trabajo de IA generativa y HPC, para que las empresas y organizaciones puedan aprovechar al máximo su infraestructura de IA“, afirmó Dion Harris, director de soluciones de productos de centros de datos para HPC, IA y Computación cuántica en NVIDIA. “La GPU NVIDIA H200 con memoria HBM3e de alta velocidad podrá manejar cantidades masivas de datos para una variedad de cargas de trabajo“.

Las nuevas GPU NVIDIA permiten la aceleración de los modelos de lenguajes grandes (LLM) actuales y futuros con cientos de miles de millones de parámetros para encajar en clústeres más compactos y eficientes para entrenar la IA generativa en menos tiempo y también permitir que varios modelos más grandes quepan en un sistema de verdad. -Inferencia LLM en tiempo para servir IA generativa para millones de usuarios.

En SC23, Supermicro presenta su última oferta, un sistema de GPU universal 4U que incluye NVIDIA HGX H100 de ocho vías con sus últimas innovaciones en refrigeración líquida que mejoran aún más la densidad y la eficiencia para impulsar la evolución de la IA.

Con las placas frías de GPU y CPU, CDU (unidad de distribución de enfriamiento) y CDM (colector de distribución de enfriamiento) líderes en la industria de Supermicro diseñados para computación ecológica, el nuevo sistema de GPU universal 4U con refrigeración líquida también está listo para NVIDIA HGX H200 de ocho vías, lo que reducirá drásticamente el espacio del centro de datos, el costo de energía y los obstáculos de implementación a través de las soluciones de rack de refrigeración líquida totalmente integradas de Supermicro y nuestras pruebas de validación L10, L11 y L12.

Solicitar más información

Deja un comentario