Acelera tus aplicaciones de cálculo técnico y científico con las GPUs NVIDIA. Ahora, los desarrolladores e investigadores pueden disfrutar de más rendimiento y accesibilidad con la última generación de GPUs H100 basadas en NVIDIA Hopper, la arquitectura de cálculo de alto rendimiento más rápida y eficiente del mundo.

Como NVIDIA Elite Partner, desde Flytech ofrecemos las últimas GPUs H100 Hopper que brinda una aceleración en IA sin precedentes.

Tarjetas Gráficas NVIDIA H100 Hopper

 

NVIDIA lanza su nueva GPU H100 Tensor Core con arquitectura Hopper para ofrecer hasta 30 veces más velocidad y eficiencia que las GPUs de generación anterior.

La arquitectura Hopper escala de forma segura diversas cargas de trabajo en todo tipo de centros de datos, desde los ubicados en pequeñas empresas hasta proyectos y compañías de computación de alto rendimiento (HPC) a gran escala e inteligencia artificial de billones de parámetros.

GPU NVIDIA H100 Tensor CoreGPU NVIDIA H100 Tensor Core

GPU NVIDIA A100

GPU con arquitectura AMPERE, la A100 Tensor Core está diseñada para la aceleración de aplicaciones tanto para Inteligencia Artificial como HPC.

Como motor de la plataforma de datacenter NVIDIA, la GPU A100 Tensor Core puede escalar hasta miles de GPUs o, con la tecnología NVIDIA MIG (Multi-Instance GPU), dividirse en siete instancias de GPU para acelerar las cargas de trabajo de cualquier tamaño.

GPU NVIDIA A100 Tensor Core

Comparativa entre A100 vs H100

 

Características A100 NVLink A100 PCIe H100 SXM H100 PCIe
FP64 9,7 TF 9,7 TF 30 TF 24 TF
Tensor Core FP64 19,5 TF 19,5 TF 60 TF 48 TF
FP32 19,5 TF 19,5 TF 60 TF 48 TF
Tensor Core FP32 156 TF | 312 TF** 156 TF | 312 TF** 1000 TF* 800 TF*
Tensor Core BFLOAT16 312 TF | 624 TF** 312 TF | 624 TF** 2000 TF* 1600 TF*
Tensor Core FP16 312 TF | 624 TF** 312 TF | 624 TF** 2000 TF* 1600 TF*
Tensor Core FP8 4000 teraFLOPS* 3200 teraFLOPS*
Tensor Core INT8 624 TOPS | 1.248 TOPS** 624 TOPS | 1.248 TOPS** 4.000 TOPS* 3.200 TOPS*
Memoria GPU 40 GB | 80 GB 40 GB 80GB 80GB
Ancho de banda de memoria GPU 1.555 GB/s | 2.039 GB/s 1.555 GB/s 3TB/S 2TB/s
Decodificadores 7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
Potencia máxima de diseño térmico (TDP)  400 W  250 W 700 W 350 W
GPU de múltiples instancias Varios tamaños de instancia con hasta 7 MIG a 10 GB Varios tamaños de instancia con hasta 7 MIG a 5 GB Hasta 7 MIGS de 10 GB cada uno
Formato ;4/8 SXM en NVIDIA HGX PCIe SXM PCIe
de doble ranura refrigerado por aire
Interconexión NVLink: 600 GB/s
PCIe 4.0: 64 GB/s
NVLink: 600 GB/s
PCIe 4.0: 64 GB/s
NVLink: 900 GB/s
PCIe 5.0: 128 GB/s
NVLINK: 600 GB/s
PCIe 5.0: 128 GB/s
Opciones del servidor NVIDIA HGX H100 Partner y NVIDIA-Certified Systems con 4 u 8 GPU NVIDIA DGX H100 con 8 GPU Sistemas certificados por NVIDIA y partners con 1 a 8 GPU

Servidores GPU

Servidores Supermicro para GPUs NVIDIA