NVIDIA lanza al mercado su última GPU con arquitectura AMPERE, la nueva A100 Tensor Core con una aceleración sin precedentes tanto para Inteligencia Artificial como HPC.

La nueva GPU A100 Tensor Core de NVIDIA proporciona una aceleración hasta ahora sin precedentes tanto para análisis de datos, como para Inteligencia Artificial (IA), como para computación de alto rendimiento (HPC) para actuar ante los desafíos informáticos más complicados del mundo.

Como motor de la plataforma de datacenter NVIDIA, la GPU A100 Tensor Core puede escalar hasta miles de GPUs o, con la tecnología NVIDIA MIG (Multi-Instance GPU), dividirse en siete instanciasd e GPU para acelerar las cargas de trabajo de cualquier tamaño.

Especificaciones

A100 para NVLINK
Pico FP64 9,7 TF
Pico de Tensor Core de FP64 19,5 TF
Pico FP32 19,5 TF
Pico de Tensor Core de TF32 156 TF | 312 TF*
Pico de Tensor Core de BFL0AT16 312 TF | 624 TF*
Pico de Tensor Core de FP16e 312 TF | 624 TF*

Pico de Tensor Core de INT8

624 TOPS | 1.248 TOPS*
Pico de Tensor Core de INT4 1.248 TOPS | 2.496 TOPS*
Memoria de la GPU 40 GB
Ancho de banda de memoria de la GPU 1.555 GB/s
Interconexión NVIDIA NVLink 600 GB/s
PCIe Gen4 64 GB/s
GPU de varias instancias 3MIG a 10GB
5MIG a 8GB
7MIG a 5GB
Formato 4/8 SXM en NVIDIA HGX” A100
Potencia máxima de TDP 400W

NVIDIA HGX A100

Para adaptarla a los servidores y potenciar su uso para aplicaciones de IA y HPC, la tecnología de las GPUs NVIDIA A100 Tensor Core junto con NVLink y NVSwitch han creado la plataforma NVIDIA HGX A100, una combinación ganadora.

Aprovechando la tecnología Tensor Cores de tercera generación, HGX A100 proporciona una aceleración 10 veces mayor en la IA de fábrica con Tensor Float 32 (TF32) y una aceleración 2,5 veces mayor en HPC con FP64. NVIDIA HGX A100 4-GPU ofrece casi 80 teraFLOPS de FP64 para las cargas de trabajo HPC más exigentes.

NVIDIA HGX A100 8-GPU proporciona 5 petaFLOPS de computación de aprendizaje profundo FP16, mientras que el HGX A100 de 16 vías ofrece unos asombrosos 10 petaFLOPS, lo que forma la plataforma de servidor de escalado acelerado más potente del mundo para IA y HPC.

Especificaciones

4-GPU 8GPU 16 GPU
GPUs 4x NVIDIA A100 8x NVIDIA A100 16x NVIDIA A100
Cálculo de IA/HPC FP64/TF32*/FP16*/INT8* 78TF/1.25PF*/2.5PF*/5POPS* 156TF/2.5PF*/5PF*/10POPS* 312TF/5PF*/10PF*/20POPS*
Memoria 160 GB 320 GB 640 GB
NVIDIA NVLink 3ª generación 3ª generación 3ª generación
NVIDIA NVSwitch N/A 2ª generación 2ª generación
NVIDIA Ancho de banda de GPU a GPU de NVSwitch N/A 600 GB/s 600 GB/s
Ancho de banda agregado total 2,4 TB/s 4,8 TB/s 9,6 TB/s