NVIDIA lanza al mercado su última GPU con arquitectura AMPERE, la nueva A100 Tensor Core con una aceleración sin precedentes tanto para Inteligencia Artificial como HPC.

La nueva GPU A100 Tensor Core de NVIDIA proporciona una aceleración hasta ahora sin precedentes tanto para análisis de datos, como para Inteligencia Artificial (IA), como para computación de alto rendimiento (HPC) para actuar ante los desafíos informáticos más complicados del mundo.

Como motor de la plataforma de datacenter NVIDIA, la GPU A100 Tensor Core puede escalar hasta miles de GPUs o, con la tecnología NVIDIA MIG (Multi-Instance GPU), dividirse en siete instanciasd e GPU para acelerar las cargas de trabajo de cualquier tamaño.

Especificaciones

A100 para NVLINK A100 para PCIe
Pico FP64 9,7 TF 9,7 TF
Pico de Tensor Core de FP64 19,5 TF 19.5 TF
Pico FP32 19,5 TF 19.5 TF
Pico de Tensor Core de TF32 156 TF | 312 TF* 156 TF | 312 TF*
Pico de Tensor Core de BFL0AT16 312 TF | 624 TF* 312 TF | 624 TF*
Pico de Tensor Core de FP16e 312 TF | 624 TF* 312 TF | 624 TF*

Pico de Tensor Core de INT8

624 TOPS | 1.248 TOPS* 624 TOPS | 1.248 TOPS*
Pico de Tensor Core de INT4 1.248 TOPS | 2.496 TOPS* 1.248 TOPS | 2.496 TOPS*
Memoria de la GPU 40 GB 80 GB 40 GB
Ancho de banda de memoria de la GPU 1.555 GB/s 2.039 GB/s 1.555 GB/s
Interconexión NVIDIA NVLink 600 GB/s
PCIe Gen4 64 GB/s
NVIDIA NVLink 600 GB/s
PCIe Gen4 64 GB/s
GPU de varias instancias Varios tamaños de instancia con hasta 7 MIG a 10 GB Varios tamaños de instancia con hasta 7 MIG a 5 GB
Formato 4/8 SXM en NVIDIA HGX” A100 PCIe
Potencia máxima de TDP 400 W 400 W 250 W

* Con escasez
** GPU SXM a través de placas de servidor HGX A100; GPU PCIe a través de NVLink Bridge para hasta 2 GPU

GPU NVIDIA A100 para HGX

GPU NVIDIA A100 para PCIe

Especificaciones (Máximo Rendimiento)

NVIDIA A100 SXM4 para NVIDIA HGX NVIDIA A100 PCIe GPU
Arquitectura GPU NVIDIA Ampere
Rendimiento Doble Precisión FP64: 9.7TFLOPS
FP64 TensorCore: 19.5 TFLOPS
Rendimiento Simple Precisión FP32: 19.5 TFLOPS
Tensor Float 32 (TF32): 156 TFLOPS | 312 TFLOPS*
Rendimiento Media Precisión 312TFLOPS | 624 TFLOPS*
Bfloat16 312TFLOPS | 624 TFLOPS*
Rendimiento Entero INT8: 624 TOPS | 1.248 TOPS*
INT4: 1.248 TOPS | 2.496 TOPS*
Memoria GPU 40 GB HBM2
Ancho de banda Memoria 1.6 TB/sec
Código de corrección de Errores
Interfaz de interconexión PCIe Gen4: 64 GB/sec Third Generation NVIDIA NVLink: 600 GB/sec** PCIe Gen4: 64 GB/sec Third Generation NVIDIA NVLink: 600 GB/sec**
Factor Formato 4/8 SXM GPUs en NVIDIA HGX A100 PCIe
Multi-Instance GPU (MIG) Hasta 7 GPU instancias
Consumición de energía máxima 400 W 250 W
Rendimiento entregado para las mejores apps 100% 90%
Solución Térmica Pasiva
Compute APIs CUDA, DirectCompute, OpenCL, OpenACC

* Dispersión estructural habilitada
**GPU SXM a través de placas de servidor HGX A100; GPU PCIe a través de NVLink Bridge para hasta 2 GPU

NVIDIA HGX A100

Para adaptarla a los servidores y potenciar su uso para aplicaciones de IA y HPC, la tecnología de las GPUs NVIDIA A100 Tensor Core junto con NVLink y NVSwitch han creado la plataforma NVIDIA HGX A100, una combinación ganadora.

Aprovechando la tecnología Tensor Cores de tercera generación, HGX A100 proporciona una aceleración 10 veces mayor en la IA de fábrica con Tensor Float 32 (TF32) y una aceleración 2,5 veces mayor en HPC con FP64. NVIDIA HGX A100 4-GPU ofrece casi 80 teraFLOPS de FP64 para las cargas de trabajo HPC más exigentes.

NVIDIA HGX A100 8-GPU proporciona 5 petaFLOPS de computación de aprendizaje profundo FP16, mientras que el HGX A100 de 16 vías ofrece unos asombrosos 10 petaFLOPS, lo que forma la plataforma de servidor de escalado acelerado más potente del mundo para IA y HPC.

Especificaciones

4-GPU 8GPU 16 GPU
GPUs 4x NVIDIA A100 8x NVIDIA A100 16x NVIDIA A100
Cálculo de IA/HPC FP64/TF32*/FP16*/INT8* 78TF/1.25PF*/2.5PF*/5POPS* 156TF/2.5PF*/5PF*/10POPS* 312TF/5PF*/10PF*/20POPS*
Memoria 160 GB 320 GB 640 GB
NVIDIA NVLink 3ª generación 3ª generación 3ª generación
NVIDIA NVSwitch N/A 2ª generación 2ª generación
NVIDIA Ancho de banda de GPU a GPU de NVSwitch N/A 600 GB/s 600 GB/s
Ancho de banda agregado total 2,4 TB/s 4,8 TB/s 9,6 TB/s