Supermicro también presenta el servidor de mayor densidad de la industria con sistemas NVIDIA HGX H100 de 8 GPU en un sistema 4U refrigerado por líquido, que utiliza la última solución de refrigeración líquida de Supermicro.
El servidor GPU de alto rendimiento más compacto de la industria permite a los operadores de centros de datos reducir el espacio y los costos de energía, al tiempo que ofrece la capacidad de entrenamiento de IA de mayor rendimiento disponible en un solo rack. Con los sistemas GPU de mayor densidad, las organizaciones pueden reducir su TCO aprovechando soluciones de refrigeración líquida de última generación.
“Supermicro se asocia con NVIDIA para diseñar los sistemas más avanzados para el entrenamiento de IA y aplicaciones HPC“, dijo Charles Liang, presidente y director ejecutivo de Supermicro. “Nuestra arquitectura de bloques de construcción nos permite ser los primeros en comercializar la última tecnología, lo que permite a los clientes implementar IA generativa más rápido que nunca. Podemos entregar estos nuevos sistemas a los clientes más rápido con nuestras instalaciones de fabricación en todo el mundo. Los nuevos sistemas, que utilizan la GPU NVIDIA H200 con interconexiones GPU-GPU de alta velocidad NVIDIA NVLink y NVSwitch a 900GB/s, ahora proporcionan hasta 1,1 TB de memoria HBM3e de alto ancho de banda por nodo en nuestras soluciones de IA a escala de rack para ofrecer el mayor rendimiento de paralelismo de modelos para los LLM y la IA generativa actuales. También estamos entusiasmados de ofrecer el servidor con refrigeración líquida NVIDIA HGX 8-GPU más compacto del mundo, que duplica la densidad de nuestras soluciones de IA a escala de rack y reduce los costos de energía para lograr una informática ecológica para el centro de datos acelerado de hoy”.
Ver servidores GPU en FlytechSupermicro diseña y fabrica una amplia cartera de servidores de IA con diferentes factores de forma. Los populares sistemas de GPU universales 8U y 4U que cuentan con GPU NVIDIA HGX H100 de cuatro y ocho vías ahora están listos para que las nuevas GPU H200 entrenen modelos de lenguaje aún más grandes en menos tiempo. Cada GPU NVIDIA H200 contiene 141 GB de memoria con un ancho de banda de 4,8 TB/s.
“Los próximos diseños de servidores de Supermicro que utilizan NVIDIA HGX H200 ayudarán a acelerar las cargas de trabajo de IA generativa y HPC, para que las empresas y organizaciones puedan aprovechar al máximo su infraestructura de IA“, afirmó Dion Harris, director de soluciones de productos de centros de datos para HPC, IA y Computación cuántica en NVIDIA. “La GPU NVIDIA H200 con memoria HBM3e de alta velocidad podrá manejar cantidades masivas de datos para una variedad de cargas de trabajo“.
Las nuevas GPU NVIDIA permiten la aceleración de los modelos de lenguajes grandes (LLM) actuales y futuros con cientos de miles de millones de parámetros para encajar en clústeres más compactos y eficientes para entrenar la IA generativa en menos tiempo y también permitir que varios modelos más grandes quepan en un sistema de verdad. -Inferencia LLM en tiempo para servir IA generativa para millones de usuarios.
En SC23, Supermicro presenta su última oferta, un sistema de GPU universal 4U que incluye NVIDIA HGX H100 de ocho vías con sus últimas innovaciones en refrigeración líquida que mejoran aún más la densidad y la eficiencia para impulsar la evolución de la IA.
Con las placas frías de GPU y CPU, CDU (unidad de distribución de enfriamiento) y CDM (colector de distribución de enfriamiento) líderes en la industria de Supermicro diseñados para computación ecológica, el nuevo sistema de GPU universal 4U con refrigeración líquida también está listo para NVIDIA HGX H200 de ocho vías, lo que reducirá drásticamente el espacio del centro de datos, el costo de energía y los obstáculos de implementación a través de las soluciones de rack de refrigeración líquida totalmente integradas de Supermicro y nuestras pruebas de validación L10, L11 y L12.
Solicitar más información