Las GPUs NVIDIA A100 transforman la ciencia de datos y el análisis de macrodatos

Por 23 de marzo de 2021 junio 14th, 2021 Soluciones

Los productos basados ​​en la arquitectura NVIDIA Ampere implementan innovaciones revolucionarias para resolver los desafíos de big data, científicos e industriales más importantes con Inteligencia Artificial (IA) y supercomputación (HPC).

Empresas e incluso industrias enteras aprovechan el poder de la IA para conseguir nuevos conocimientos de conjuntos de datos masivos, tanto en las infraestructuras físicas como en la nube.

Los productos basados en la arquitectura NVIDIA Ampere, como la GPU NVIDIA A100 o la GPU NVIDIA RTX A6000, brindan el próximo gran salto al proporcionar una aceleración inigualable, lo que permite ampliar los límites del conocimiento y de la creatividad humana.

Los Tensor Cores de tercera generación proporcionan aceleraciones increíbles en IA, reduciendo así los tiempos de entrenamiento de semanas a horas. Como dato, los Tensor Float (TF32) y Floating Point 64 (FP64, solo NVIDIA A100) aceleran la adopción de IA y extiende la potencia de Tensor Cores a HPC.

TF32 funciona igual que FP32 al tiempo que ofrece aceleraciones de hasta 10x para AI sin requerir ningún cambio de código cuando se utiliza escasez. La precisión mixta automática y FP16 se pueden invocar para optimizar el rendimiento agregando solo un par de líneas de código. Con soporte para bfloat16, INT8 e INT4, los núcleos tensores de tercera generación de NVIDIA son un acelerador increíblemente versátil para el entrenamiento y la inferencia de IA. Al llevar el poder de Tensor Cores a HPC, NVIDIA A100 permite operaciones matriciales con una precisión FP64 con certificación IEEE completa.

Todas las aplicaciones de inteligencia artificial, ciencia de datos y HPC pueden beneficiarse de la aceleración, pero no todas las aplicaciones necesitan el rendimiento de una GPU completa basada en la arquitectura Ampere. Con la GPU de instancias múltiples (MIG), compatible con el A100, la GPU se puede dividir en hasta siete instancias de GPU, completamente aislada y protegida a nivel de hardware con su propia memoria de alto ancho de banda, caché y núcleos de cómputo. Esto ofrece una aceleración revolucionaria para todas las aplicaciones, grandes y pequeñas, y brinda una calidad de servicio garantizada. Los administradores de TI pueden ofrecer aceleración de GPU del tamaño adecuado para una utilización óptima y ampliar el acceso a todos los usuarios y aplicaciones en entornos bare-metal y virtualizados.

La configuración del A100 SXM4 con 40 GB de memoria GPU proporciona enormes cantidades de rendimiento informático a los centros de datos.

Para mantener estos motores de cómputo en pleno uso, el DGX A100 proporciona 1,6 terabytes por segundo (TB/s) de ancho de banda de memoria líder en su clase, un aumento del 67% con respecto a la generación anterior. El A100 también tiene mucha más memoria en el chip, incluida una caché de nivel 2 de 40 megabytes (MB), 7 veces más grande que la generación anterior, para maximizar el rendimiento informático. La versión de la placa PCIe conserva los 40 GB de memoria de la GPU HBM2, con un ancho de bus de memoria de 5120 bits y un ancho de banda de memoria máximo de hasta 1555 GB/s, lo que le quita fácilmente la corona de rendimiento a la generación anterior de Tesla V100.

Escalar aplicaciones en múltiples GPU requiere un movimiento de datos extremadamente rápido. NVIDIA NVLink de tercera generación en el A100 SXM4 duplica el ancho de banda directo de GPU a GPU a 600 gigabytes por segundo (GB/s), casi 10 veces más alto que PCIe Gen 4. La implementación de PCIe 4.0 A100 también presenta un ancho de banda máximo total de NVLink de 600 GB/s.

Los servidores NVIDIA DGX A100 pueden aprovechar la tecnología NVLink y NVSwitch a través de las placas base NVIDIA HGX A100 para ofrecer una mayor escalabilidad para cargas de trabajo de HPC e IA. Para aquellos que prefieren implementar placas base PCIe, la opción NVIDIA A100 PCIe es totalmente compatible con NVLink.

Las redes de IA contemporáneas son grandes y cada vez más grandes, con millones y, en algunos casos, miles de millones de parámetros. No todos estos son necesarios para realizar predicciones e inferencias precisas, y algunos se pueden convertir a ceros para hacer que los modelos sean “dispersos” sin comprometer la precisión. Los núcleos tensores basados ​​en la arquitectura Ampere en NVIDIA A100 o RTX A6000 brindan hasta 10 veces más rendimiento para modelos dispersos. Si bien la característica de escasez beneficia más fácilmente la inferencia de IA, también se puede utilizar para mejorar el rendimiento del entrenamiento de modelos.

Los núcleos RT de segunda generación basados ​​en la arquitectura NVIDIA Ampere en las GPU NVIDIA RTX A6000 y NVIDIA A40 brindan aceleraciones masivas para casos de uso de análisis de big data, ciencia de datos, inteligencia artificial y HPC donde ver (visualizar) el problema es esencial para resolver el problema. Los RT Cores permiten el trazado de rayos en tiempo real para obtener resultados fotorrealistas y funcionan de forma sinérgica con Tensor Cores para ofrecer eliminación de ruido de IA y otras funciones que mejoran la productividad.

Para obtener más información sobre cómo los productos basados ​​en la arquitectura NVIDIA Ampere, como NVIDIA A100 o A40 PCIe, pueden reinventar los flujos de trabajo y proyectos de análisis de big data y ciencia de datos, puede contactar con Flytech, NVIDIA Preferred Partner.

Deja un comentario