NVIDIA lanza al mercado su última GPU con arquitectura AMPERE, la nueva A100 Tensor Core con una aceleración sin precedentes tanto para Inteligencia Artificial como HPC.

La nueva GPU A100 Tensor Core de NVIDIA proporciona una aceleración hasta ahora sin precedentes tanto para análisis de datos, como para Inteligencia Artificial (IA), como para computación de alto rendimiento (HPC) para actuar ante los desafíos informáticos más complicados del mundo.

Como motor de la plataforma de datacenter NVIDIA, la GPU A100 Tensor Core puede escalar hasta miles de GPUs o, con la tecnología NVIDIA MIG (Multi-Instance GPU), dividirse en siete instanciasd e GPU para acelerar las cargas de trabajo de cualquier tamaño.

Especificaciones

A100
80GB PCIe
A100
80GB SXM
Pico FP64 9,7 TF 9,7 TF
Pico de Tensor Core de FP64 19,5 TF 19.5 TF
Pico FP32 19,5 TF 19.5 TF
Pico de Tensor Core de TF32 156 TF | 312 TF* 156 TF | 312 TF*
Pico de Tensor Core de BFL0AT16 312 TF | 624 TF* 312 TF | 624 TF*
Pico de Tensor Core de FP16e 312 TF | 624 TF* 312 TF | 624 TF*

Pico de Tensor Core de INT8

624 TOPS | 1248 TOPS* 624 TOPS | 1248 TOPS*
Memoria de la GPU 80GB HBM2e 80GB HBM2e
Ancho de banda de memoria de la GPU 1,935 GB/s 2,039 GB/s
Interconexión NVIDIA NVLink Bridge para 2 GPUs: 600GB/s**
PCIe Gen4: 64 GB/s
NVLin: 600 GB/s
PCIe Gen4 64 GB/s
GPU de varias instancias Hasta 7 MIG a 10GB Hasta 7 MIG a 10GB
Formato PCIe dual-slot refrigeración por aire o single-slot refrigeración líquida SXM
Potencia máxima de TDP 300 W 400 W***
Opcions de servidor Partners y Servidores certificados por NVIDIA de 1-8 GPUs NVIDIA HGX A100 – Partner y sistemas certificados por NVIDIA con 4, 8 o 16 GPUs
NVIDIA DGX A100 con 8 GPUs

* Con escasez
** GPU SXM a través de placas de servidor HGX A100; GPU PCIe a través de NVLink Bridge para hasta 2 GPU
*** 400W TDP para configuración estándar. HGX A100-80GB CTS (solución térmica personalizada) puede admitir hasta 500W

GPU NVIDIA A100 para HGX

GPU NVIDIA A100 para PCIe

Especificaciones (Máximo Rendimiento)

NVIDIA A100 SXM4 para NVIDIA HGX NVIDIA A100 PCIe GPU
Arquitectura GPU NVIDIA Ampere
Rendimiento Doble Precisión FP64: 9.7TFLOPS
FP64 TensorCore: 19.5 TFLOPS
Rendimiento Simple Precisión FP32: 19.5 TFLOPS
Tensor Float 32 (TF32): 156 TFLOPS | 312 TFLOPS*
Rendimiento Media Precisión 312TFLOPS | 624 TFLOPS*
Bfloat16 312TFLOPS | 624 TFLOPS*
Rendimiento Entero INT8: 624 TOPS | 1.248 TOPS*
INT4: 1.248 TOPS | 2.496 TOPS*
Memoria GPU 40 GB HBM2
Ancho de banda Memoria 1.6 TB/sec
Código de corrección de Errores
Interfaz de interconexión PCIe Gen4: 64 GB/sec Third Generation NVIDIA NVLink: 600 GB/sec** PCIe Gen4: 64 GB/sec Third Generation NVIDIA NVLink: 600 GB/sec**
Factor Formato 4/8 SXM GPUs en NVIDIA HGX A100 PCIe
Multi-Instance GPU (MIG) Hasta 7 GPU instancias
Consumición de energía máxima 400 W 250 W
Rendimiento entregado para las mejores apps 100% 90%
Solución Térmica Pasiva
Compute APIs CUDA, DirectCompute, OpenCL, OpenACC

* Dispersión estructural habilitada
**GPU SXM a través de placas de servidor HGX A100; GPU PCIe a través de NVLink Bridge para hasta 2 GPU

NVIDIA HGX A100

Para adaptarla a los servidores y potenciar su uso para aplicaciones de IA y HPC, la tecnología de las GPUs NVIDIA A100 Tensor Core junto con NVLink y NVSwitch han creado la plataforma NVIDIA HGX A100, una combinación ganadora.

Aprovechando la tecnología Tensor Cores de tercera generación, HGX A100 proporciona una aceleración 10 veces mayor en la IA de fábrica con Tensor Float 32 (TF32) y una aceleración 2,5 veces mayor en HPC con FP64. NVIDIA HGX A100 4-GPU ofrece casi 80 teraFLOPS de FP64 para las cargas de trabajo HPC más exigentes.

NVIDIA HGX A100 8-GPU proporciona 5 petaFLOPS de computación de aprendizaje profundo FP16, mientras que el HGX A100 de 16 vías ofrece unos asombrosos 10 petaFLOPS, lo que forma la plataforma de servidor de escalado acelerado más potente del mundo para IA y HPC.

Especificaciones

4-GPU 8GPU 16 GPU
GPUs 4x NVIDIA A100 8x NVIDIA A100 16x NVIDIA A100
Cálculo de IA/HPC FP64/TF32*/FP16*/INT8* 78TF/1.25PF*/2.5PF*/5POPS* 156TF/2.5PF*/5PF*/10POPS* 312TF/5PF*/10PF*/20POPS*
Memoria 160 GB 320 GB 640 GB
NVIDIA NVLink 3ª generación 3ª generación 3ª generación
NVIDIA NVSwitch N/A 2ª generación 2ª generación
NVIDIA Ancho de banda de GPU a GPU de NVSwitch N/A 600 GB/s 600 GB/s
Ancho de banda agregado total 2,4 TB/s 4,8 TB/s 9,6 TB/s