Supermicro amplía de nuevo su cartera de sistemas de GPU

Por 15 de enero de 2022 abril 29th, 2022 Noticias, Soluciones
Supermicro presenta nuevos sistemas que se basan en la GPU de arquitectura NVIDIA Ampere y procesadores escalables Intel Xeon de tercera generación con aceleradores de IA incorporados.

Los nuevos servidores de Supermicro están diseñados para aplicaciones de IA donde la baja latencia y el alto rendimiento de las aplicaciones son requisitos clave. El sistema 2U NVIDIA HGX A100 4-GPU ha sido diseñado para implementar clústeres de entrenamiento de IA modernos a escala con interconexiones CPU-GPU y GPU-GPU de alta velocidad.

El sistema puede reducir el uso de energía y los costos al compartir fuentes de alimentación y ventiladores de enfriamiento, reducir las emisiones de carbono y admitir una gama de aceleradores de GPU discretos, que pueden adaptarse a la carga de trabajo. Ambos sistemas incluyen funciones de seguridad de hardware avanzadas que están habilitadas por las últimas extensiones Intel Software Guard Extensions (Intel SGX).

“Los ingenieros de Supermicro han creado otra amplia cartera de sistemas basados ​​en GPU de alto rendimiento que reducen los costos, el espacio y el consumo de energía en comparación con otros diseños”, dijo Charles Liang, presidente y director ejecutivo de Supermicro. “Con nuestro diseño innovador, podemos ofrecer a los clientes aceleradores de 4 GPU NVIDIA HGX A100 (nombre en clave Redstone) para cargas de trabajo de IA y HPC en factores de forma densos de 2U. Además, nuestro sistema 2U de 2 nodos está diseñado para compartir componentes de alimentación y refrigeración que reducen los gastos operativos y el impacto en el medio ambiente”.

El servidor 2U NVIDIA HGX A100 se basa en los procesadores escalables Intel Xeon de tercera generación con tecnología Intel Deep Learning Boost y está optimizado para cargas de trabajo de análisis, capacitación e inferencia.

El sistema puede ofrecer hasta 2,5 petaflops de rendimiento de IA, con cuatro GPU A100 totalmente interconectadas con NVIDIA NVLink, lo que proporciona hasta 320 GB de memoria de GPU para acelerar los avances en la ciencia de datos empresariales y la IA. El sistema es hasta 4 veces más rápido que las GPU de la generación anterior para modelos de IA conversacionales complejos como la gran inferencia BERT y ofrece un aumento de rendimiento de hasta 3 veces para el entrenamiento de IA grande BERT.

Además, los diseños térmicos y de enfriamiento avanzados hacen que estos sistemas sean adecuados para clústeres de alto rendimiento donde la densidad de nodos y la eficiencia energética son prioridades.

La refrigeración líquida también está disponible para estos sistemas, lo que genera aún más ahorros en OPEX. La memoria persistente Intel Optane (PMem) también es compatible con esta plataforma, lo que permite mantener modelos significativamente más grandes en la memoria, cerca de la CPU, antes de procesarlos en las GPU. Para las aplicaciones que requieren la interacción de múltiples sistemas, el sistema también se puede equipar con cuatro tarjetas NVIDIA ConnectX-6 200Gb/s InfiniBand para admitir GPUDirect RDMA con una proporción de GPU a DPU de 1:1.

El 2U 2-Node es una arquitectura de ahorro de recursos de bajo consumo diseñada para que cada nodo admita hasta tres GPU de doble ancho. Cada nodo también cuenta con un único procesador escalable Intel Xeon de tercera generación con hasta 40 núcleos y aceleración HPC e IA integrada .

Se considera que una amplia gama de aplicaciones de IA, renderizado y VDI se benefician de este equilibrio de CPU y GPU.

Equipado con las ranuras de expansión del Módulo de E/S avanzado (AIOM) de Supermicro para capacidades de red rápidas y flexibles, el sistema también puede procesar flujos de datos masivos para aplicaciones exigentes de IA/ML, capacitación de aprendizaje profundo e inferencia mientras asegura la carga de trabajo y los modelos de aprendizaje. También es adecuado para juegos en la nube de alta gama de múltiples instancias y muchas otras aplicaciones VDI de computación intensiva.

Además, las redes de entrega de contenido virtual (vCDN) podrán satisfacer la creciente demanda de servicios de transmisión. La redundancia de la fuente de alimentación está integrada, ya que cualquiera de los nodos puede utilizar la fuente de alimentación del nodo adyacente en caso de falla.

Deja un comentario